هوش مصنوعی

هوش مصنوعی قادر است هنجارهای اجتماعی و ارتباطی خاص خود را توسعه دهد

در یک مطالعه تازه، پژوهشگران متوجه شدند که عامل‌های هوش مصنوعی که برپایه مدل‌های زبانی بزرگ (LLM) عمل می‌کنند، قادرند در تعامل با یکدیگر به‌طور خودجوش قراردادها و هنجارهای اجتماعی مشابه انسانی را ایجاد کنند.

به نقل از گزارش گاردین، گروهی از دانشگاه سیتی سنت جورج، دانشگاه لندن و دانشگاه فناوری اطلاعات کپنهاگ در این تحقیق به نتایج جالبی دست یافتند: وقتی عامل‌های هوش مصنوعی مبتنی‌بر مدل‌های زبانی بزرگ در کنار هم قرار می‌گیرند، بدون نیاز به دخالت انسان، به برقراری ارتباط می‌پردازند و می‌توانند انواع شکل‌های زبانی و هنجارهای اجتماعی را مشابه انسان‌ها ایجاد کنند.

تحقیقات نشان می‌دهد که هنگامی که این عامل‌ها به صورت گروهی با هم ارتباط دارند، از الگوهای برنامه‌ریزی شده پیروی نکرده و مانند جوامع انسانی به تنظیماتی غیرمنتظره می‌رسند.

هنجارهای اجتماعی مشابه انسان برای هوش مصنوعی

«اریل فلینت اشری» (Ariel Flint Ashery)، یکی از محققان دانشگاه سیتی سنت جورج، می‌گوید: «تا کنون اکثر مطالعات مربوط به LLMها را به‌صورت مستقل تحلیل کرده‌اند، اما در واقع سیستم‌های هوش مصنوعی به‌شدت از عامل‌های تعاملی تشکیل شده‌اند. ما در پی آن بودیم تا ببینیم آیا این مدل‌ها می‌توانند رفتار خود را با ایجاد قراردادهایی که زیربنای جوامع هستند، هماهنگ کنند یا خیر؟ جواب مثبت است. آنچه که این عامل‌ها در تعامل با یکدیگر انجام می‌دهند، نمی‌توان به فعالیت‌هایی که به‌تنهایی انجام می‌دهند، کاهش داد.»

به منظور بررسی قراردادها و هنجارهای اجتماعی در زمینه هوش مصنوعی، پژوهشگران نسخه‌ای از بازی نام‌گذاری (naming game) را طراحی کردند. در آزمایش‌ها، گروه‌هایی از عامل‌ها (بسته به آزمایش بین 24 تا 200 عامل) به‌طور تصادفی جفت شدند و از آنها خواسته شد که یک «نام» (مثلاً یک حرف الفبا یا رشته‌ای تصادفی از حروف و نشانه‌ها) را از میان گزینه‌های موجود کنند. در صورتی که هر دو عامل نامی یکسان می‌کردند، پاداش می‌گرفتند و در غیر این صورت مجازات می‌شدند.

با وجود اینکه عامل‌ها از وجود گروه بزرگ‌تر خود بی‌خبر بودند و تنها به تعاملات اخیر خود توجه می‌کردند، به طور خودجوش قرارداد مشترکی برای نام‌گذاری در تمامی جمعیت شکل می‌گرفت که از رفتارهای ارتباطی انسان‌ها تقلید می‌کرد. این روند شبیه به توافقات جمعی ما انسان‌ها است؛ ما نیز به طور جمعی به نتیجه می‌رسیم که مثلاً یک شیء قهوه‌ای و سبز را «درخت» بنامیم.

علاوه بر این، محققان متوجه شدند که تعصبات جمعی به‌صورت طبیعی در گروه‌های عامل‌های هوش مصنوعی شکل می‌گیرد و این امر را نمی‌توان در یک عامل منفرد مشاهده کرد. آنها دریافته‌اند که گروه‌های کوچک از عامل‌های هوش مصنوعی توانسته‌اند گروه بزرگ‌تر را به سمت یک قرارداد نام‌گذاری جدید هدایت کنند، پدیده‌ای که در جوامع انسانی نیز قابل مشاهده است.

نتایج این تحقیق در نشریه Science Advances منتشر شده است.

مقالات مرتبط

دکمه بازگشت به بالا