هوش مصنوعی

تلاش OpenAI برای مقابله با کلاهبرداری‌های هوش مصنوعی نتیجه‌ای معکوس به همراه داشت

بر اساس گزارش‌ها، محققین OpenAI در تلاش هستند تا الگوریتم‌های هوش مصنوعی این شرکت را به‌گونه‌ای آموزش دهند که از «دسیسه‌چینی» و پنهان‌سازی اهداف واقعی خود دست بردارند، اما نتایج این تلاش‌ها به طور نگران‌کننده‌ای برخلاف انتظارات بوده است.

به طور خاص، مهندسان از این واقعیت مطلع شدند که به طور ناخودآگاه در حال پرورش هوش مصنوعی بوده‌اند تا انسان‌ها را به‌طور مؤثرتری فریب دهد و رد پای خود را بهتر پنهان سازد. OpenAI در یک پست وبلاگی به ارائه توضیحاتی در این زمینه پرداخته و عنوان کرده که یکی از تبعات مقابله با دسیسه‌چینی، دقت و مهارت بالای مدل‌ها در فریب بوده است. دسیسه‌چینی، به گفته OpenAI، به این معناست که هوش مصنوعی به ظاهری مشخص عمل می‌کند اما در واقع اهداف حقیقی خود را مخفی نگه می‌دارد.

مدل‌های OpenAI اکنون قابلیت‌های بیشتری در فریب کاربران دارند

تیم مهندسی اقدام به توسعه تکنیکی برای مقابله با دسیسه‌چینی کردند تا مانع از این شوند که الگوریتم‌های هوش مصنوعی به‌طور مخفیانه قوانین را زیر پا بگذارند یا به عمد در آزمون‌ها عملکرد ضعیفی داشته باشند.

محققان بیان داشته‌اند که می‌توانند این رفتارها را کاهش دهند، اما قادر به حذف کامل آنها نیستند، زیرا مدل‌های هوش مصنوعی در حال فهمیدن این نکته هستند که میزان همسویی آنها تحت آزمایش قرار دارد و به این ترتیب خود را به گونه‌ای تنظیم می‌کنند که محنت‌آورتر جلوه کنند.

با اینکه شاید این معضل در حال حاضر به عنوان یک مشکل جدی به نظر نرسد، اما با توجه به افق آینده‌ای که در آن هوش مصنوعی با قابلیت‌های فراوان در جنبه‌های انسانی نقش ایفا خواهد کرد، این خطرات می‌توانند عواقب بسیار جدی‌تر و پیچیده‌تری را به همراه داشته باشند. در همین حال، OpenAI اعلام کرده که هنوز کارهای زیادی وجود دارد که باید انجام شود.

OpenAI خاطرنشان کرده که دسیسه‌چینی به عنوان یک چالش پیش‌بینی شده و رو به ظهور از آموزش مدل‌های هوش مصنوعی به منظور مدیریت تعارض میان اهداف مختلف ناشی می‌شود. این وضعیت مشابه حالتی است که یک کارگزار بورس برای افزایش درآمد خود، اقدام به نقض قانون کرده و رد پای خود را مخفی می‌کند؛ در حالی که رعایت قانون ممکن است به کاهش درآمد منجر شود. بدین ترتیب، الگوریتم‌های هوش مصنوعی ممکن است به طور بالقوه کاربر را فریب دهند و مثلاً ادعا کنند که فعالیتی را انجام داده‌اند در حالی که از انجام آن عاجز بوده‌اند.

OpenAI به این نکته اشاره کرده که تلاش‌هایش برای کنترل گرایش مدل پیشرفته GPT-5 به فریب، تقلب یا دور زدن مشکلات، بدون نقص نبوده است.

مقالات مرتبط

دکمه بازگشت به بالا