هوش مصنوعی قادر است هنجارهای اجتماعی و ارتباطی خاص خود را توسعه دهد
در یک مطالعه تازه، پژوهشگران متوجه شدند که عاملهای هوش مصنوعی که برپایه مدلهای زبانی بزرگ (LLM) عمل میکنند، قادرند در تعامل با یکدیگر بهطور خودجوش قراردادها و هنجارهای اجتماعی مشابه انسانی را ایجاد کنند.
به نقل از گزارش گاردین، گروهی از دانشگاه سیتی سنت جورج، دانشگاه لندن و دانشگاه فناوری اطلاعات کپنهاگ در این تحقیق به نتایج جالبی دست یافتند: وقتی عاملهای هوش مصنوعی مبتنیبر مدلهای زبانی بزرگ در کنار هم قرار میگیرند، بدون نیاز به دخالت انسان، به برقراری ارتباط میپردازند و میتوانند انواع شکلهای زبانی و هنجارهای اجتماعی را مشابه انسانها ایجاد کنند.
تحقیقات نشان میدهد که هنگامی که این عاملها به صورت گروهی با هم ارتباط دارند، از الگوهای برنامهریزی شده پیروی نکرده و مانند جوامع انسانی به تنظیماتی غیرمنتظره میرسند.
هنجارهای اجتماعی مشابه انسان برای هوش مصنوعی
«اریل فلینت اشری» (Ariel Flint Ashery)، یکی از محققان دانشگاه سیتی سنت جورج، میگوید: «تا کنون اکثر مطالعات مربوط به LLMها را بهصورت مستقل تحلیل کردهاند، اما در واقع سیستمهای هوش مصنوعی بهشدت از عاملهای تعاملی تشکیل شدهاند. ما در پی آن بودیم تا ببینیم آیا این مدلها میتوانند رفتار خود را با ایجاد قراردادهایی که زیربنای جوامع هستند، هماهنگ کنند یا خیر؟ جواب مثبت است. آنچه که این عاملها در تعامل با یکدیگر انجام میدهند، نمیتوان به فعالیتهایی که بهتنهایی انجام میدهند، کاهش داد.»
به منظور بررسی قراردادها و هنجارهای اجتماعی در زمینه هوش مصنوعی، پژوهشگران نسخهای از بازی نامگذاری (naming game) را طراحی کردند. در آزمایشها، گروههایی از عاملها (بسته به آزمایش بین 24 تا 200 عامل) بهطور تصادفی جفت شدند و از آنها خواسته شد که یک «نام» (مثلاً یک حرف الفبا یا رشتهای تصادفی از حروف و نشانهها) را از میان گزینههای موجود کنند. در صورتی که هر دو عامل نامی یکسان میکردند، پاداش میگرفتند و در غیر این صورت مجازات میشدند.
با وجود اینکه عاملها از وجود گروه بزرگتر خود بیخبر بودند و تنها به تعاملات اخیر خود توجه میکردند، به طور خودجوش قرارداد مشترکی برای نامگذاری در تمامی جمعیت شکل میگرفت که از رفتارهای ارتباطی انسانها تقلید میکرد. این روند شبیه به توافقات جمعی ما انسانها است؛ ما نیز به طور جمعی به نتیجه میرسیم که مثلاً یک شیء قهوهای و سبز را «درخت» بنامیم.
علاوه بر این، محققان متوجه شدند که تعصبات جمعی بهصورت طبیعی در گروههای عاملهای هوش مصنوعی شکل میگیرد و این امر را نمیتوان در یک عامل منفرد مشاهده کرد. آنها دریافتهاند که گروههای کوچک از عاملهای هوش مصنوعی توانستهاند گروه بزرگتر را به سمت یک قرارداد نامگذاری جدید هدایت کنند، پدیدهای که در جوامع انسانی نیز قابل مشاهده است.
نتایج این تحقیق در نشریه Science Advances منتشر شده است.