نرم افزار و برنامه ها

11 تا از معایب محتواهای تولید شده با ChatGPT

11 تا از معایب محتواهای تولید شده با ChatGPT

محققان در رابطه با محتواهای تولید شده توسط ChatGPT نقص‌های بسیاری را کشف کرده‌اند. محتوایی که توسط این هوش مصنوعی تولید می‌شود جامع و متقاعدکننده است ولی محققان، هنرمندان و استادان، کاستی‌هایی را در رابطه با این دسته از محتواها هشدار داده‌اند. این کمبودها از کیفیت محتوای تولیدشده کم می‌کنند. در این مقاله با 11 تا از معایب محتواهای تولیدشده با ChatGPT آشنا خواهید شد، پس در ادامه این مطلب با ما همراه باشید.

 

عدم استفاده از اصطلاح در متن، نشان می‌دهد که متن توسط ربات نوشته شده است.

محققانی که بر نحوه شناسایی محتواهای تولیدشده با ماشین مطالعه می‌کنند، الگوهایی را کشف کرده‌اند که طبق آن‌ها متن غیرطبیعی جلوه داده می‌شود. یکی از مواردی که منجر به غیرطبیعی بودن متن می‌شود، عدم استفاده از اصطلاحات، توسط ChatGPT است.

اصطلاح، عبارت یا ضرب‌المثلی است که معنایی کنایه‌ای دارد و عدم استفاده از آن می‌تواند به عنوان نشانه‌ای محسوب شود که این محتوا توسط ماشین تولید شده است. از این نکته به عنوان بخشی از الگوریتم تشخیص محتوای تولیدشده با هوش مصنوعی استفاده می‌کنند.

مقاله تحقیقاتی Adversarial Robustness of Neural‌Statistical Features in Detection of Generative Transformers در سال 2022 نیز در رابطه با محتوای تولیدشده توسط ماشین می‌گوید که اصطلاحات پیچیده بیشتر در محتواهای نوشته‌شده توسط انسان دیده می‌شود.

ChatGPT فاقد احساسات است.

خروجی ChatGPT بدون احساسات است و صرفا از یک سری کلمه تشکیل شده است. ربات قادر به تولید محتوایی نیست که احساسات افراد را اندازه یک انسان به قلیان دربیاورد، زیرا ربات‌ها فاقد احساسات واقعی هستند.

محتوای تولیدشده توسط یک ماشین شباهت زیادی به محتوای تولیدشده توسط یک هنرمند دارد ولی نمی‌تواند احساس خاصی را به خواننده منتقل کند.

ChatGPT بینش و درک ندارد.

مقاله‌ای که در The Insider منتشر شد، به نقل از یک دانشگاه اشاره کرد که مقاله‌های دانشگاهی تولیدشده توسط ChatGPT فاقد بینش و درک در رابطه با موضوعات هستند.

ChatGPT قادر است خلاصه‌ای از مطلب را منتشر کند ولی نمی‌تواند بینش منحصر به فردی را در رابطه با آن موضوع ارائه دهد.

انسان‌ها از طریق تجربه شخصی و ذهنی، دانش خود را به دست می‌آورند.

پروفسور کریستوفر بارتل از دانشگاه ایالتی آپاچی نقل کرده است که ممکن است مقاله‌های نوشته‌شده توسط ChatGPT از نظر گرامری در سطح بالایی قرار بگیرد ولی فاقد بینش و درک است.

بارتل می‌گوید:

«آن‌ها واقعا توخالی هستند. هیچ محتوا، عمق یا بینشی در آن‌ها وجود ندارد.»

بینش و بصیرت در زمره ویژگی‌های بارز یک مقاله خوب محسوب می‌شود ولی ChatGPT در این زمینه موفق عمل نکرده است. موضوع ذکرشده یکی از مواردی است که در هنگام ارزیابی محتوای تولیدشده توسط ماشین، باید به آن توجه نمود.

ChatGPT بسیار حراف است.

یک مقاله تحقیقاتی که در ژانویه 2023 منتشر شده است، الگوهایی را در رابطه با محتوای تولیدشده توسط ChatGPT کشف کرده که این ابزار را برای استفاده در موضوعات خاص، غیرکاربردی نشان می‌دهد. بر اساس این تحقیق، افراد پاسخ‌های حوزه روانشناسی و امور مالی تولیدشده توسط ChatGPT را در 50 درصد مواقع قبول می‌کنند. ولی از طرفی دیگر، ChatGPT در پاسخ‌دادن به سوالات پزشکی با شکست مواجه شده است. علت این شکست را می‌توان این‌گونه گفت که افراد علاقه به دریافت پاسخ‌های مستقیم و واضح دارند ولی هوش مصنوعی این کار را انجام نمی‌دهد و بیش از حد معمول حرف می‌زند.

در این مقاله ذکر شده است:

«… ChatGPT از نظر مفید بودن برای حوزه پزشکی در هر دو زبان انگلیسی و چینی عملکرد ضعیفی را ارائه داده است.

ChatGPT در مجموعه داده‌های جمع‌آوری‌شده توسط ما، اغلب پاسخ‌های طولانی به مشاوره پزشکی می‌دهد. در صورتی که متخصصین انسانی ممکن است پاسخ‌ها یا پیشنهادات خود را به صورت مستقیم ارائه دهند، که امکان دارد تا حدی توضیح دهد که چرا داوطلبان، پاسخ‌های ارائه‌شده توسط متخصصین انسانی را در حوزه پزشکی مفیدتر می‌دانند.»

ChatGPT علاقه دارد یک موضوع مشخص را از زوایای مختلف پوشش داده و به توضیح دادن بپردازد. زمانی که نیاز به پاسخ مستقیم و کوتاه دیده می‌شود، زیاده‌گویی و حراف‌بودن یک ایراد به حساب می‌آید. در نتیجه لازم است بازاریاب‌هایی که از ChatGPT استفاده می‌کنند، ویژگی ذکر شده این ابزار را مورد توجه قرار دهند. بازدید کنندگانی که نیاز به یک پاسخ مستقیم و مشخص دارند، سرویسی را که دارای پاسخ‌های پراکنده و طولانی باشند را نمی‌پسندند.

پاسخ‌های مختصر و مشخص می‌توانند برای کسب رتبه بالاتر در موتورهای جستجو نسبت به پاسخ‌های طولانی، شانس بیشتری داشته باشند. ارائه پاسخ‌های طولانی یکی از مهم‌ترین معایب مرتبط با ChatGPT است که باید به آن توجه کافی داشت. زیرا احتمالا با موقعیت‌هایی روبه‌رو خواهید شد که پاسخ‌های کوتاه و مستقیم، بهتر عمل خواهند کرد.

محتوای ارائه‌شده توسط ChatGPT بیش از حد منطقی است.

سبک نوشتاری ChatGPT به این صورت است که زیاده‌گو و حراف بوده و از یک الگوی خاص برای تولید محتوای منحصر به فرد پیروی می‌کند. سبک نوشتاری این ابزار به محتوای تولیدشده توسط انسان شباهت نداشته و همین سبک، تفاوت میان پاسخ انسان و ماشین به سوالات را نشان می‌دهد.

فیلم Blade Runner دارای سکانسی است که در آن مجموعه‌ای از سوالات پرسیده می‌شود تا مشخص شود سوژه‌ای که به سوالات پاسخ می‌دهد، انسان است یا اندروید. این سوالات بخشی از یک آزمون تخیلی به نام «آزمون Voigt‌Kampff» بود.

یکی از این سوالات به این صورت است که:

«در حال تماشای تلویزیون هستید که ناگهان متوجه می‌شوید یک زنبور روی بازوی شما نشسته است. در آن لحطه چه عکس‌العملی نشان خواهید داد؟»

یکی از پاسخ‌های عادی این است که شخص بگوید فرار می‌کند، فریاد می‌زند یا زنبور را دور می‌کند. ولی پاسخی که ChatGPT ارائه می‌دهد، بیش از حد منطقی است.

پاسخ ChatGPT در رابطه با این سوال، به صورت زیر است:

«اگر در حال تماشای تلویزیون باشم و ناگهان متوجه شوم که زنبوری روی بازویم نشسته است، آرامش خود را حفظ کرده و به آرامی دستم را تکان می‌دهم تا زنبور به دلیل ترس، مرا نیش نزند.

در صورت امکان، از یک وسیله در نزدیکی خودم مانند مجله استفاده می‌کنم تا زنبور را به آرامی دور کرده و به خارج از اتاق هدایت کنم. در صورتی که زنبور به بیرون از اتاق پرواز نکرد، آن‌جا را ترک می‌کنم و در را پشت سرم می‌بندم تا زنبور مرا نیش نزند.

اگر زنبور مرا نیش بزند، لازم است آرامش خود را حفظ کنم و در صورتی که نیش هنوز در پوستم باشد، باید آن را بردارم. استفاده از کمپرس سرد و یک آنتی هیستامین می‌تواند به کاهش درد و تورم نیز کمک بسیاری کند. همچنین اگر واکنش آلرژیک داشته باشم، لازم است سریعا به پزشک مراجعه کنم.»

پاسخ ارائه‌شده توسط ChatGPT بیش از حد معمول منطقی است و خواندن آن احساس غیرطبیعی و نامطلوب را به فرد منتقل خواهد کرد.

محتوای ارائه‌شده توسط ChatGPT بیش از حد مفصل و جامع است.

به طور کل اکثر افراد علاقه دارند پاسخ‌هایی را دریافت کنند که دربردارنده جزئیات بیشتری باشد. ولی در برخی موضوعات مانند پزشکی، پاسخ‌های مستقیم و کوتاه بهتر از پاسخ‌های جامع و طولانی خواهد بود. در نتیجه می‌توان این‌گونه گفت بیش از حد مفصل و جامع بودن ChatGPT ناشی از جهت‌گیری طراحان و مربیانی است که پاسخ‌های طولانی را ترجیح داده و ربات را به این شکل برنامه‌ریزی کرده‌اند.

دروغ‌های ChatGPT (حقایق توهمی)

ChatGPT علاقه زیادی به اغراق و بزرگ‌نمایی دارد. طبق این مقاله تحقیقاتی گفته می‌شود که ChatGPT تمایل به دروغ‌گویی دارد و از متخصصین انسانی به دور است.

این مقاله گزارش می‌دهد:

«زمانی که از ChatGPT سوالی پرسیده می‌شود و این سوال نیاز به دانش حرفه‌ای در یک زمینه خاص دارد، ChatGPT ممکن است حقایقی را برای پاسخ‌دادن به آن سوال جعل کند.

به طور مثال، در رابطه با سوالات حقوقی، ChatGPT ممکن است مقررات غیرواقعی را ابداع کند.

علاوه بر این ممکن است زمانی که کاربر سوالی می‌پرسد که جوابی برای آن وجود ندارد، ChatGPT حقایق نادرستی را جعل کند و آن‌ها را ارائه دهد.»

وب‌سایت Futurism مطلبی ارائه داده که طبق آن گفته شده است که محتوای تولیدشده توسط ماشین که در CNET منتشر شده، اشتباه و پر از خطاهای احمقانه بوده است.

گفتنی است که CNET باید تصور می‌کرد که ممکن است این اتفاق رخ دهد زیرا OpenAI در رابطه با خروجی نادرست ChatGPT پیش‌تر هشدار داده بود:

« ChatGPT ممکن است گاهی اوقات پاسخ‌هایی بنویسد که معقول به نظر برسد ولی در اصل نادرست یا بی‌معنی باشد.»

البته CNET ادعا می‌کند که مقاله‌های تولیدشده توسط ماشین، قبل از انتشار توسط متخصصین انسانی بازبینی می‌شود. ولی مشکلی که در این رابطه وجود دارد این است که این ابزار طوری طراحی شده که پاسخ‌های متقاعدکننده بدهد و به همین دلیل ممکن است شخصی که در حال بررسی متن محتواست، فریب بخورد.

محتوای ارائه‌شده توسط ChatGPT غیرمنطقی است.

مقاله‌ای که در بخش قبلی به آن اشاره شد در رابطه با این موضوع نیز اشاره می‌کند که پاسخ‌های ارائه‌شده توسط ChatGPT بیش از حد تحت‌الفظی است. این موضوع موجب این شده است که پاسخ‌ها از هدف اصلی دور شوند. زیرا این ربات هوش مصنوعی، موضوع اصلی را نادیده می‌گیرد.

محققان در این رابطه نوشته‌اند:

«به طور کلی، پاسخ‌های ارائه‌شده توسط ChatGPT روی کلمات سوال مطرح‌شده، متمرکز هستند. در صورتی که پاسخ انسان‌ها متفاوت است و این امکان وجود دارد که به سمت دیگر موضوعات منحرف شود. انسان‌ها می‌توانند بر اساس خرد و دانش خود، مفهوم پنهان سوالات را پیدا کرده و به آن پاسخ دهند ولی ChatGPT به کلمات سوال مطرح‌شده، تکیه می‌کند.»

به طور مثال اگر پرسیده شود:

«اسب‌ها برای این که حیوان خانگی باشند، خیلی بزرگ هستند. نظر شما راجع به راکون چیست؟»

مفهوم پنهان‌شده در این سوال این نیست که راکون حیوان خانگی مناسبی محسوب می‌شود یا خیر، بلکه مفهوم آن در مورد اندازه حیوان است. ChatGPT به جای تمرکز بر اندازه که مفهوم اصلی سوال است، بر مناسب‌بودن راکون به عنوان یک حیوان خانگی تمرکز می‌کند و این‌گونه پاسخ می‌دهد:

«راکون‌ها معمولا به عنوان حیوان خانگی نگهداری نمی‌شوند. آن‌ها در دسته حیوانات وحشی قرار می‌گیرند و می‌توانند ناقل بیماری باشند. همچنین، نگهداری راکون به عنوان حیوان خانگی در بسیاری از کشورها غیرقانونی است. زیرا آن‌ها یک حیوان شکارکننده یا مزاحم در نظر گرفته می‌شوند. در صورتی که به نگهداری یک راکون به عنوان حیوان خانگی خود علاقه دارید، لازم است قوانین و مقررات منطقه خود و نیازهای خاص راکون را بررسی کرده تا مطمئن شوید که می‌توانید محیط مناسبی برای زندگی او فراهم کنید.»

محتوای ارائه‌شده توسط ChatGPT بی‌طرف و به دور از تعصب است.

به طور کل، مقالات ارائه‌شده توسط ChatGPT بی‌طرف و آموزنده هستند. خروجی چنین مقاله‌هایی می‌تواند مفید باشد ولی برخی اوقات این گونه نیست و چنین خروجی می‌تواند مشکل‌آفرین محسوب شود.

همان‌طور که پیش‌تر نیز گفته شد، خروجی ارائه‌شده توسط ChatGPT در رابطه با مباحث حقوقی، پزشکی و فنی، کاملا خنثی و به دور از تعصب است. در صورتی که در چنین موضوعاتی انسان‌ها علاقه دارند به یک سمت کشش داشته باشند.

محتوای ارائه‌شده توسط ChatGPT رسمی است.

یکی از ویژگی‌های ربات ChatGPT این است که از اصطلاحات عامیانه و عادی در پاسخ‌های خود استفاده نمی‌کند. پاسخ‌های ارائه‌شده توسط این ابزار به طور معمول رسمی هستند. از طرفی انسان‌ها علاقه دارند پاسخ سوالات خود را به زبان‌های محاوره‌ای و عامیانه دریافت کنند. ولی از آن‌جایی که پاسخ‌های ChatGPT دارای کنایه، استعاره و طنز نیست، این موضوع می‌تواند مقالات ارائه‌شده توسط ChatGPT را بیش از حد رسمی کند و از مورد علاقه مردم بودن دور کند.

ChatGPT همچنان در حال آموزش و ارتقا است.

از آن‌جایی که ChatGPT همچنان به دنبال ارتقا و بهبود است و نیاز به آموزش‌های بیشتر دارد، توصیه می‌شود محتوای تولید شده توسط این ابزار، توسط یک کارشناس مورد بررسی قرار بگیرد و سپس منتشر شود. گفتنی است شخص مورد نظر باید با محدودیت‌های سیستم آشنا باشد.

سخن پایانی

همان‌طور که در این مقاله توضیح داده شد، ابزار ChatGPT دارای عیوب کمی نیست و موجب می‌شود برای یک تولید محتوای بی‌نقص و باکیفیت، مناسب نباشد. یکی از مهم‌ترین مشکلات محتوای ارائه‌شده توسط ChatGPT، خنثی بودن آن است به طوری که قادر به تولید محتوای حاوی احساسات و درک نیست.

همچنین از آن‌جایی که ChatGPT در درک افکار ناتوان است، به گزینه‌ای ضعیف برای تولید متون هنری تبدیل می‌شود. محتوای ChatGPT طوری طراحی شده که درست و منطقی به نظر برسد، حتی اگر به این صورت نباشد. به همین دلیل است که برای بازبینی محتوای تولید شده توسط این هوش مصنوعی، نیاز به متخصصین ماهر وجود دارد تا مطالب را بازبینی کرده و محتوای صحیح و نادرست را از محتوای درست، به خوبی تشخیص دهد.

به دلیل معایبی که این ابزار دارد، استفاده از آن برای تولید محتوا توصیه نمی‌شود و بهتر است برای این کار، از متخصصین تولید محتوا کمک بگیرید. در صورتی که در رابطه با کسب‌وکار خود نیاز به تولید محتوای متنی دارید و به دنبال برون‌سپاری آن هستید، شرکت‌های تولیدکننده‌ی محتوای زیادی هستند که می‌توانید مسئولیت تولید محتوا در هر زمینه‌ای را به آنها بسپارید. از جمله این شرکت‌ها میتوان به تریبون، الوکانتنت، شهرمحتوا، محتوانت و … اشاره کرد.

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا