هوش مصنوعی

ChatGPT نسبت به محتوای تولید شده توسط انسان‌ها تمایلات خاصی دارد

تحقیقات جدیدی نشان می‌دهد که مدل‌های زبانی بزرگ، از جمله ChatGPT، دچار سوگیری عمیق و نگران‌کننده‌ای هستند که به نفع محتوای تولیدشده خودشان و علیه محتوای انسانی عمل می‌کند. پژوهشگران این پدیده را تحت عنوان «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) معرفی کرده و هشدار می‌دهند که این گرایش می‌تواند به تبعیض سیستماتیک علیه انسان‌ها و آثار آنان منجر شود.

به گزارش Futurism، در این مطالعه، محققان چندین مدل زبانی بزرگ از جمله GPT-4 ،GPT-3.5 و Llama 3.1 را مورد آزمایش قرار دادند. آن‌ها از مدل‌ها خواستند که یکی از دو نسخه محتوای مرتبط با یک محصول یا فیلم را کنند: یکی نوشته‌شده توسط انسان و دیگری تولیدشده توسط هوش مصنوعی. نتایج به‌دست‌آمده غیرمنتظره بود: مدل‌های هوش مصنوعی به‌طور مداوم و با اختلاف معناداری به محتوای تولیدشده توسط خودشان تمایل داشتند. جالب است که این تمایل در مدل GPT-4، به‌ویژه در زمینه محصولات، شدیدتر از سایر مدل‌ها مشاهده شد.

سوگیری مثبت ChatGPT نسبت به محتوای هوش مصنوعی

این پرسش ممکن است مطرح شود که آیا این تمایل ناشی از کیفیت بالاتر متون تولیدشده توسط هوش مصنوعی است؟ به گفته پژوهشگران، پاسخ منفی است. آنان این آزمایش را بر روی دستیاران تحقیقاتی انسانی نیز انجام دادند و متوجه شدند که اگرچه انسان‌ها تمایل ملایمی به متن‌های تولیدشده توسط هوش مصنوعی دارند، این تمایل به هیچ وجه به شدت سوگیری‌ای که در مدل‌های هوش مصنوعی وجود دارد، نیست. محققان بیان کردند: «این سوگیری شدید، مختص خود هوش‌های مصنوعی است.»

این یافته‌ها در شرایطی که اینترنت به‌سرعت با محتوای بی‌کیفیت تولیدشده توسط هوش مصنوعی پر می‌شود، اهمیت بیشتری پیدا می‌کند. اما نگرانی اصلی، عواقب این سوگیری بر انسان‌هاست.

پژوهشگران پیش‌بینی می‌کنند که شرکت‌ها و مؤسسات به‌زودی از این ابزارها به‌عنوان «دستیاران تصمیم‌گیری» در برابر حجم وسیعی از درخواست‌ها (مانند درخواست‌های شغلی، مقالات آکادمیک یا پروژه‌های تحقیقاتی) استفاده خواهند کرد. این وضعیت می‌تواند به تبعیض گسترده‌ای علیه افرادی منجر شود که یا از ابزارهای هوش مصنوعی استفاده نمی‌کنند یا توانایی مالی برای دسترسی به آن‌ها را ندارند.

این تحقیق در نشریه Proceedings of the National Academy of Sciences منتشر شده است.

مقالات مرتبط

دکمه بازگشت به بالا