ChatGPT نسبت به محتوای تولید شده توسط انسانها تمایلات خاصی دارد
تحقیقات جدیدی نشان میدهد که مدلهای زبانی بزرگ، از جمله ChatGPT، دچار سوگیری عمیق و نگرانکنندهای هستند که به نفع محتوای تولیدشده خودشان و علیه محتوای انسانی عمل میکند. پژوهشگران این پدیده را تحت عنوان «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) معرفی کرده و هشدار میدهند که این گرایش میتواند به تبعیض سیستماتیک علیه انسانها و آثار آنان منجر شود.
به گزارش Futurism، در این مطالعه، محققان چندین مدل زبانی بزرگ از جمله GPT-4 ،GPT-3.5 و Llama 3.1 را مورد آزمایش قرار دادند. آنها از مدلها خواستند که یکی از دو نسخه محتوای مرتبط با یک محصول یا فیلم را کنند: یکی نوشتهشده توسط انسان و دیگری تولیدشده توسط هوش مصنوعی. نتایج بهدستآمده غیرمنتظره بود: مدلهای هوش مصنوعی بهطور مداوم و با اختلاف معناداری به محتوای تولیدشده توسط خودشان تمایل داشتند. جالب است که این تمایل در مدل GPT-4، بهویژه در زمینه محصولات، شدیدتر از سایر مدلها مشاهده شد.
سوگیری مثبت ChatGPT نسبت به محتوای هوش مصنوعی
این پرسش ممکن است مطرح شود که آیا این تمایل ناشی از کیفیت بالاتر متون تولیدشده توسط هوش مصنوعی است؟ به گفته پژوهشگران، پاسخ منفی است. آنان این آزمایش را بر روی دستیاران تحقیقاتی انسانی نیز انجام دادند و متوجه شدند که اگرچه انسانها تمایل ملایمی به متنهای تولیدشده توسط هوش مصنوعی دارند، این تمایل به هیچ وجه به شدت سوگیریای که در مدلهای هوش مصنوعی وجود دارد، نیست. محققان بیان کردند: «این سوگیری شدید، مختص خود هوشهای مصنوعی است.»
این یافتهها در شرایطی که اینترنت بهسرعت با محتوای بیکیفیت تولیدشده توسط هوش مصنوعی پر میشود، اهمیت بیشتری پیدا میکند. اما نگرانی اصلی، عواقب این سوگیری بر انسانهاست.
پژوهشگران پیشبینی میکنند که شرکتها و مؤسسات بهزودی از این ابزارها بهعنوان «دستیاران تصمیمگیری» در برابر حجم وسیعی از درخواستها (مانند درخواستهای شغلی، مقالات آکادمیک یا پروژههای تحقیقاتی) استفاده خواهند کرد. این وضعیت میتواند به تبعیض گستردهای علیه افرادی منجر شود که یا از ابزارهای هوش مصنوعی استفاده نمیکنند یا توانایی مالی برای دسترسی به آنها را ندارند.
این تحقیق در نشریه Proceedings of the National Academy of Sciences منتشر شده است.