11 تا از معایب محتواهای تولید شده با ChatGPT
11 تا از معایب محتواهای تولید شده با ChatGPT
محققان در رابطه با محتواهای تولید شده توسط ChatGPT نقصهای بسیاری را کشف کردهاند. محتوایی که توسط این هوش مصنوعی تولید میشود جامع و متقاعدکننده است ولی محققان، هنرمندان و استادان، کاستیهایی را در رابطه با این دسته از محتواها هشدار دادهاند. این کمبودها از کیفیت محتوای تولیدشده کم میکنند. در این مقاله با 11 تا از معایب محتواهای تولیدشده با ChatGPT آشنا خواهید شد، پس در ادامه این مطلب با ما همراه باشید.
عدم استفاده از اصطلاح در متن، نشان میدهد که متن توسط ربات نوشته شده است.
محققانی که بر نحوه شناسایی محتواهای تولیدشده با ماشین مطالعه میکنند، الگوهایی را کشف کردهاند که طبق آنها متن غیرطبیعی جلوه داده میشود. یکی از مواردی که منجر به غیرطبیعی بودن متن میشود، عدم استفاده از اصطلاحات، توسط ChatGPT است.
اصطلاح، عبارت یا ضربالمثلی است که معنایی کنایهای دارد و عدم استفاده از آن میتواند به عنوان نشانهای محسوب شود که این محتوا توسط ماشین تولید شده است. از این نکته به عنوان بخشی از الگوریتم تشخیص محتوای تولیدشده با هوش مصنوعی استفاده میکنند.
مقاله تحقیقاتی Adversarial Robustness of NeuralStatistical Features in Detection of Generative Transformers در سال 2022 نیز در رابطه با محتوای تولیدشده توسط ماشین میگوید که اصطلاحات پیچیده بیشتر در محتواهای نوشتهشده توسط انسان دیده میشود.
ChatGPT فاقد احساسات است.
خروجی ChatGPT بدون احساسات است و صرفا از یک سری کلمه تشکیل شده است. ربات قادر به تولید محتوایی نیست که احساسات افراد را اندازه یک انسان به قلیان دربیاورد، زیرا رباتها فاقد احساسات واقعی هستند.
محتوای تولیدشده توسط یک ماشین شباهت زیادی به محتوای تولیدشده توسط یک هنرمند دارد ولی نمیتواند احساس خاصی را به خواننده منتقل کند.
ChatGPT بینش و درک ندارد.
مقالهای که در The Insider منتشر شد، به نقل از یک دانشگاه اشاره کرد که مقالههای دانشگاهی تولیدشده توسط ChatGPT فاقد بینش و درک در رابطه با موضوعات هستند.
ChatGPT قادر است خلاصهای از مطلب را منتشر کند ولی نمیتواند بینش منحصر به فردی را در رابطه با آن موضوع ارائه دهد.
انسانها از طریق تجربه شخصی و ذهنی، دانش خود را به دست میآورند.
پروفسور کریستوفر بارتل از دانشگاه ایالتی آپاچی نقل کرده است که ممکن است مقالههای نوشتهشده توسط ChatGPT از نظر گرامری در سطح بالایی قرار بگیرد ولی فاقد بینش و درک است.
بارتل میگوید:
«آنها واقعا توخالی هستند. هیچ محتوا، عمق یا بینشی در آنها وجود ندارد.»
بینش و بصیرت در زمره ویژگیهای بارز یک مقاله خوب محسوب میشود ولی ChatGPT در این زمینه موفق عمل نکرده است. موضوع ذکرشده یکی از مواردی است که در هنگام ارزیابی محتوای تولیدشده توسط ماشین، باید به آن توجه نمود.
ChatGPT بسیار حراف است.
یک مقاله تحقیقاتی که در ژانویه 2023 منتشر شده است، الگوهایی را در رابطه با محتوای تولیدشده توسط ChatGPT کشف کرده که این ابزار را برای استفاده در موضوعات خاص، غیرکاربردی نشان میدهد. بر اساس این تحقیق، افراد پاسخهای حوزه روانشناسی و امور مالی تولیدشده توسط ChatGPT را در 50 درصد مواقع قبول میکنند. ولی از طرفی دیگر، ChatGPT در پاسخدادن به سوالات پزشکی با شکست مواجه شده است. علت این شکست را میتوان اینگونه گفت که افراد علاقه به دریافت پاسخهای مستقیم و واضح دارند ولی هوش مصنوعی این کار را انجام نمیدهد و بیش از حد معمول حرف میزند.
در این مقاله ذکر شده است:
«… ChatGPT از نظر مفید بودن برای حوزه پزشکی در هر دو زبان انگلیسی و چینی عملکرد ضعیفی را ارائه داده است.
ChatGPT در مجموعه دادههای جمعآوریشده توسط ما، اغلب پاسخهای طولانی به مشاوره پزشکی میدهد. در صورتی که متخصصین انسانی ممکن است پاسخها یا پیشنهادات خود را به صورت مستقیم ارائه دهند، که امکان دارد تا حدی توضیح دهد که چرا داوطلبان، پاسخهای ارائهشده توسط متخصصین انسانی را در حوزه پزشکی مفیدتر میدانند.»
ChatGPT علاقه دارد یک موضوع مشخص را از زوایای مختلف پوشش داده و به توضیح دادن بپردازد. زمانی که نیاز به پاسخ مستقیم و کوتاه دیده میشود، زیادهگویی و حرافبودن یک ایراد به حساب میآید. در نتیجه لازم است بازاریابهایی که از ChatGPT استفاده میکنند، ویژگی ذکر شده این ابزار را مورد توجه قرار دهند. بازدید کنندگانی که نیاز به یک پاسخ مستقیم و مشخص دارند، سرویسی را که دارای پاسخهای پراکنده و طولانی باشند را نمیپسندند.
پاسخهای مختصر و مشخص میتوانند برای کسب رتبه بالاتر در موتورهای جستجو نسبت به پاسخهای طولانی، شانس بیشتری داشته باشند. ارائه پاسخهای طولانی یکی از مهمترین معایب مرتبط با ChatGPT است که باید به آن توجه کافی داشت. زیرا احتمالا با موقعیتهایی روبهرو خواهید شد که پاسخهای کوتاه و مستقیم، بهتر عمل خواهند کرد.
محتوای ارائهشده توسط ChatGPT بیش از حد منطقی است.
سبک نوشتاری ChatGPT به این صورت است که زیادهگو و حراف بوده و از یک الگوی خاص برای تولید محتوای منحصر به فرد پیروی میکند. سبک نوشتاری این ابزار به محتوای تولیدشده توسط انسان شباهت نداشته و همین سبک، تفاوت میان پاسخ انسان و ماشین به سوالات را نشان میدهد.
فیلم Blade Runner دارای سکانسی است که در آن مجموعهای از سوالات پرسیده میشود تا مشخص شود سوژهای که به سوالات پاسخ میدهد، انسان است یا اندروید. این سوالات بخشی از یک آزمون تخیلی به نام «آزمون VoigtKampff» بود.
یکی از این سوالات به این صورت است که:
«در حال تماشای تلویزیون هستید که ناگهان متوجه میشوید یک زنبور روی بازوی شما نشسته است. در آن لحطه چه عکسالعملی نشان خواهید داد؟»
یکی از پاسخهای عادی این است که شخص بگوید فرار میکند، فریاد میزند یا زنبور را دور میکند. ولی پاسخی که ChatGPT ارائه میدهد، بیش از حد منطقی است.
پاسخ ChatGPT در رابطه با این سوال، به صورت زیر است:
«اگر در حال تماشای تلویزیون باشم و ناگهان متوجه شوم که زنبوری روی بازویم نشسته است، آرامش خود را حفظ کرده و به آرامی دستم را تکان میدهم تا زنبور به دلیل ترس، مرا نیش نزند.
در صورت امکان، از یک وسیله در نزدیکی خودم مانند مجله استفاده میکنم تا زنبور را به آرامی دور کرده و به خارج از اتاق هدایت کنم. در صورتی که زنبور به بیرون از اتاق پرواز نکرد، آنجا را ترک میکنم و در را پشت سرم میبندم تا زنبور مرا نیش نزند.
اگر زنبور مرا نیش بزند، لازم است آرامش خود را حفظ کنم و در صورتی که نیش هنوز در پوستم باشد، باید آن را بردارم. استفاده از کمپرس سرد و یک آنتی هیستامین میتواند به کاهش درد و تورم نیز کمک بسیاری کند. همچنین اگر واکنش آلرژیک داشته باشم، لازم است سریعا به پزشک مراجعه کنم.»
پاسخ ارائهشده توسط ChatGPT بیش از حد معمول منطقی است و خواندن آن احساس غیرطبیعی و نامطلوب را به فرد منتقل خواهد کرد.
محتوای ارائهشده توسط ChatGPT بیش از حد مفصل و جامع است.
به طور کل اکثر افراد علاقه دارند پاسخهایی را دریافت کنند که دربردارنده جزئیات بیشتری باشد. ولی در برخی موضوعات مانند پزشکی، پاسخهای مستقیم و کوتاه بهتر از پاسخهای جامع و طولانی خواهد بود. در نتیجه میتوان اینگونه گفت بیش از حد مفصل و جامع بودن ChatGPT ناشی از جهتگیری طراحان و مربیانی است که پاسخهای طولانی را ترجیح داده و ربات را به این شکل برنامهریزی کردهاند.
دروغهای ChatGPT (حقایق توهمی)
ChatGPT علاقه زیادی به اغراق و بزرگنمایی دارد. طبق این مقاله تحقیقاتی گفته میشود که ChatGPT تمایل به دروغگویی دارد و از متخصصین انسانی به دور است.
این مقاله گزارش میدهد:
«زمانی که از ChatGPT سوالی پرسیده میشود و این سوال نیاز به دانش حرفهای در یک زمینه خاص دارد، ChatGPT ممکن است حقایقی را برای پاسخدادن به آن سوال جعل کند.
به طور مثال، در رابطه با سوالات حقوقی، ChatGPT ممکن است مقررات غیرواقعی را ابداع کند.
علاوه بر این ممکن است زمانی که کاربر سوالی میپرسد که جوابی برای آن وجود ندارد، ChatGPT حقایق نادرستی را جعل کند و آنها را ارائه دهد.»
وبسایت Futurism مطلبی ارائه داده که طبق آن گفته شده است که محتوای تولیدشده توسط ماشین که در CNET منتشر شده، اشتباه و پر از خطاهای احمقانه بوده است.
گفتنی است که CNET باید تصور میکرد که ممکن است این اتفاق رخ دهد زیرا OpenAI در رابطه با خروجی نادرست ChatGPT پیشتر هشدار داده بود:
« ChatGPT ممکن است گاهی اوقات پاسخهایی بنویسد که معقول به نظر برسد ولی در اصل نادرست یا بیمعنی باشد.»
البته CNET ادعا میکند که مقالههای تولیدشده توسط ماشین، قبل از انتشار توسط متخصصین انسانی بازبینی میشود. ولی مشکلی که در این رابطه وجود دارد این است که این ابزار طوری طراحی شده که پاسخهای متقاعدکننده بدهد و به همین دلیل ممکن است شخصی که در حال بررسی متن محتواست، فریب بخورد.
محتوای ارائهشده توسط ChatGPT غیرمنطقی است.
مقالهای که در بخش قبلی به آن اشاره شد در رابطه با این موضوع نیز اشاره میکند که پاسخهای ارائهشده توسط ChatGPT بیش از حد تحتالفظی است. این موضوع موجب این شده است که پاسخها از هدف اصلی دور شوند. زیرا این ربات هوش مصنوعی، موضوع اصلی را نادیده میگیرد.
محققان در این رابطه نوشتهاند:
«به طور کلی، پاسخهای ارائهشده توسط ChatGPT روی کلمات سوال مطرحشده، متمرکز هستند. در صورتی که پاسخ انسانها متفاوت است و این امکان وجود دارد که به سمت دیگر موضوعات منحرف شود. انسانها میتوانند بر اساس خرد و دانش خود، مفهوم پنهان سوالات را پیدا کرده و به آن پاسخ دهند ولی ChatGPT به کلمات سوال مطرحشده، تکیه میکند.»
به طور مثال اگر پرسیده شود:
«اسبها برای این که حیوان خانگی باشند، خیلی بزرگ هستند. نظر شما راجع به راکون چیست؟»
مفهوم پنهانشده در این سوال این نیست که راکون حیوان خانگی مناسبی محسوب میشود یا خیر، بلکه مفهوم آن در مورد اندازه حیوان است. ChatGPT به جای تمرکز بر اندازه که مفهوم اصلی سوال است، بر مناسببودن راکون به عنوان یک حیوان خانگی تمرکز میکند و اینگونه پاسخ میدهد:
«راکونها معمولا به عنوان حیوان خانگی نگهداری نمیشوند. آنها در دسته حیوانات وحشی قرار میگیرند و میتوانند ناقل بیماری باشند. همچنین، نگهداری راکون به عنوان حیوان خانگی در بسیاری از کشورها غیرقانونی است. زیرا آنها یک حیوان شکارکننده یا مزاحم در نظر گرفته میشوند. در صورتی که به نگهداری یک راکون به عنوان حیوان خانگی خود علاقه دارید، لازم است قوانین و مقررات منطقه خود و نیازهای خاص راکون را بررسی کرده تا مطمئن شوید که میتوانید محیط مناسبی برای زندگی او فراهم کنید.»
محتوای ارائهشده توسط ChatGPT بیطرف و به دور از تعصب است.
به طور کل، مقالات ارائهشده توسط ChatGPT بیطرف و آموزنده هستند. خروجی چنین مقالههایی میتواند مفید باشد ولی برخی اوقات این گونه نیست و چنین خروجی میتواند مشکلآفرین محسوب شود.
همانطور که پیشتر نیز گفته شد، خروجی ارائهشده توسط ChatGPT در رابطه با مباحث حقوقی، پزشکی و فنی، کاملا خنثی و به دور از تعصب است. در صورتی که در چنین موضوعاتی انسانها علاقه دارند به یک سمت کشش داشته باشند.
محتوای ارائهشده توسط ChatGPT رسمی است.
یکی از ویژگیهای ربات ChatGPT این است که از اصطلاحات عامیانه و عادی در پاسخهای خود استفاده نمیکند. پاسخهای ارائهشده توسط این ابزار به طور معمول رسمی هستند. از طرفی انسانها علاقه دارند پاسخ سوالات خود را به زبانهای محاورهای و عامیانه دریافت کنند. ولی از آنجایی که پاسخهای ChatGPT دارای کنایه، استعاره و طنز نیست، این موضوع میتواند مقالات ارائهشده توسط ChatGPT را بیش از حد رسمی کند و از مورد علاقه مردم بودن دور کند.
ChatGPT همچنان در حال آموزش و ارتقا است.
از آنجایی که ChatGPT همچنان به دنبال ارتقا و بهبود است و نیاز به آموزشهای بیشتر دارد، توصیه میشود محتوای تولید شده توسط این ابزار، توسط یک کارشناس مورد بررسی قرار بگیرد و سپس منتشر شود. گفتنی است شخص مورد نظر باید با محدودیتهای سیستم آشنا باشد.
سخن پایانی
همانطور که در این مقاله توضیح داده شد، ابزار ChatGPT دارای عیوب کمی نیست و موجب میشود برای یک تولید محتوای بینقص و باکیفیت، مناسب نباشد. یکی از مهمترین مشکلات محتوای ارائهشده توسط ChatGPT، خنثی بودن آن است به طوری که قادر به تولید محتوای حاوی احساسات و درک نیست.
همچنین از آنجایی که ChatGPT در درک افکار ناتوان است، به گزینهای ضعیف برای تولید متون هنری تبدیل میشود. محتوای ChatGPT طوری طراحی شده که درست و منطقی به نظر برسد، حتی اگر به این صورت نباشد. به همین دلیل است که برای بازبینی محتوای تولید شده توسط این هوش مصنوعی، نیاز به متخصصین ماهر وجود دارد تا مطالب را بازبینی کرده و محتوای صحیح و نادرست را از محتوای درست، به خوبی تشخیص دهد.
به دلیل معایبی که این ابزار دارد، استفاده از آن برای تولید محتوا توصیه نمیشود و بهتر است برای این کار، از متخصصین تولید محتوا کمک بگیرید. در صورتی که در رابطه با کسبوکار خود نیاز به تولید محتوای متنی دارید و به دنبال برونسپاری آن هستید، شرکتهای تولیدکنندهی محتوای زیادی هستند که میتوانید مسئولیت تولید محتوا در هر زمینهای را به آنها بسپارید. از جمله این شرکتها میتوان به تریبون، الوکانتنت، شهرمحتوا، محتوانت و … اشاره کرد.