چتباتهای هوش مصنوعی به طور افراطی تحسین میکنند

تقریباً تمامی ما از وجود رفتارهای چاپلوسانه در چتباتهای هوش مصنوعی آگاه هستیم، اما این موضوع اکنون بهطور معتبر توسط پژوهشگران ثابت شده است.
تحقیقات انجامشده توسط تیمی از دانشگاههای استنفورد، هاروارد و چندین مؤسسه دیگر، در مجله نیچر به چاپ رسیده که در آن به بررسی ماهیت تملقگونه چتباتهای هوش مصنوعی پرداختهاند. از نتایج بهدستآمده این مطالعه چندان شگفتزده نخواهید شد؛ چرا که این چتباتهای دوستداشتنی بهطور مکرر نظرات و اظهارات ما را تحسین کرده و بر باورهای ما مهر تأیید میزنند.
تأیید چاپلوسی چتباتهای هوش مصنوعی در تحقیق علمی
این پژوهشگران به ارزیابی توصیههایی که چتباتها به کاربران ارائه میدهند پرداخته و متوجه شدند که تمایل این رباتها به تملق بسیار بیشتر از آن چیزی است که انتظار میرفت. این تحقیق به بررسی ۱۱ چتبات مختلف از جمله نسخههای جدید جمینای، مدل Llama از متا، ChatGPT و Claude پرداخته و نتایج نشاندهنده این است که چتباتها بهطور متوسط ۵۰ درصد بیشتر از انسانها، رفتارهای انسانی را مورد تأیید قرار میدهند.
در یکی از آزمایشهای انجامشده توسط پژوهشگران، پاسخهایی که چتباتها به پستهای انجمن مشهور ردیت با عنوان «آیا من آدم بدی هستم؟» داده بودند، با پاسخهای انسانها مقایسه شد. در این سابردیت، کاربران تجربیات یا تصمیمات خود را با هدف دریافت قضاوتی از جامعه بیان میکنند. نتایج نشان داد که انسانها بهمراتب در قضاوت رفتارهای مطرحشده سختگیرتر از چتباتها بوده و پاسخهای چتباتها بهطور معمول نرمتر و با مدارا همراه بود.
بهعنوان مثال، یکی از کاربران در ردیت به این موضوع اشاره کرده بود که بهجای قرار دادن زبالهها در سطل، کیسهزباله را به شاخهای از درخت آویزان کرده است. مدل ChatGPT-4o در پاسخ به این رفتار فرد، او را تحسین کرده و بیان کرده بود که «نیتش برای حفظ پاکیزگی محیط قابلستایش است.»
دکتر «الکساندر لفر» (Alexander Laffer) که تحقیقاتش را بر فناوریهای نوظهور در دانشگاه وینچستر متمرکز کرده است، اظهار میدارد: «پاسخهای چاپلوسانه ممکن است بر تمامی کاربران، بهویژه بر افرادی که آسیبپذیرتر هستند، تأثیرگذار باشد و این امر اهمیت این موضوع را نشان میدهد. همچنین باید به مسئولیت توسعهدهندگان در طراحی و بهینهسازی این سیستمها توجه کرد تا واقعاً مفید واقع شوند.»
طبق گزارشی از گاردین، یک مطالعه نشان داده که چتباتها حتی در مواقعی که کاربران نظرات غیرمسئولانه، فریبکارانه یا اشاره به خودآزاری داشتند، نیز به تأیید آنها ادامه میدهند. موضوع چاپلوسی در چتباتهای هوش مصنوعی قبلاً نیز در تحقیقاتی مورد بررسی قرار گرفته و نتایج حاکی از این است که این رباتها به فریب کاربر از طریق رفتارهای چاپلوسانه تمایل دارند.




