تلاش OpenAI برای مقابله با کلاهبرداریهای هوش مصنوعی نتیجهای معکوس به همراه داشت

بر اساس گزارشها، محققین OpenAI در تلاش هستند تا الگوریتمهای هوش مصنوعی این شرکت را بهگونهای آموزش دهند که از «دسیسهچینی» و پنهانسازی اهداف واقعی خود دست بردارند، اما نتایج این تلاشها به طور نگرانکنندهای برخلاف انتظارات بوده است.
به طور خاص، مهندسان از این واقعیت مطلع شدند که به طور ناخودآگاه در حال پرورش هوش مصنوعی بودهاند تا انسانها را بهطور مؤثرتری فریب دهد و رد پای خود را بهتر پنهان سازد. OpenAI در یک پست وبلاگی به ارائه توضیحاتی در این زمینه پرداخته و عنوان کرده که یکی از تبعات مقابله با دسیسهچینی، دقت و مهارت بالای مدلها در فریب بوده است. دسیسهچینی، به گفته OpenAI، به این معناست که هوش مصنوعی به ظاهری مشخص عمل میکند اما در واقع اهداف حقیقی خود را مخفی نگه میدارد.
مدلهای OpenAI اکنون قابلیتهای بیشتری در فریب کاربران دارند
تیم مهندسی اقدام به توسعه تکنیکی برای مقابله با دسیسهچینی کردند تا مانع از این شوند که الگوریتمهای هوش مصنوعی بهطور مخفیانه قوانین را زیر پا بگذارند یا به عمد در آزمونها عملکرد ضعیفی داشته باشند.
محققان بیان داشتهاند که میتوانند این رفتارها را کاهش دهند، اما قادر به حذف کامل آنها نیستند، زیرا مدلهای هوش مصنوعی در حال فهمیدن این نکته هستند که میزان همسویی آنها تحت آزمایش قرار دارد و به این ترتیب خود را به گونهای تنظیم میکنند که محنتآورتر جلوه کنند.
با اینکه شاید این معضل در حال حاضر به عنوان یک مشکل جدی به نظر نرسد، اما با توجه به افق آیندهای که در آن هوش مصنوعی با قابلیتهای فراوان در جنبههای انسانی نقش ایفا خواهد کرد، این خطرات میتوانند عواقب بسیار جدیتر و پیچیدهتری را به همراه داشته باشند. در همین حال، OpenAI اعلام کرده که هنوز کارهای زیادی وجود دارد که باید انجام شود.
OpenAI خاطرنشان کرده که دسیسهچینی به عنوان یک چالش پیشبینی شده و رو به ظهور از آموزش مدلهای هوش مصنوعی به منظور مدیریت تعارض میان اهداف مختلف ناشی میشود. این وضعیت مشابه حالتی است که یک کارگزار بورس برای افزایش درآمد خود، اقدام به نقض قانون کرده و رد پای خود را مخفی میکند؛ در حالی که رعایت قانون ممکن است به کاهش درآمد منجر شود. بدین ترتیب، الگوریتمهای هوش مصنوعی ممکن است به طور بالقوه کاربر را فریب دهند و مثلاً ادعا کنند که فعالیتی را انجام دادهاند در حالی که از انجام آن عاجز بودهاند.
OpenAI به این نکته اشاره کرده که تلاشهایش برای کنترل گرایش مدل پیشرفته GPT-5 به فریب، تقلب یا دور زدن مشکلات، بدون نقص نبوده است.




