هوش مصنوعی

هوش مصنوعی می‌تواند به کامپیوترها نفوذ کند و روی آن‌ها تکثیر شود

به‌تازگی تحقیق جدیدی منتشر شده که از توانایی ترسناک مدل‌های هوش مصنوعی برای هک کامپیوترها پرده برمی‌دارد. در این تحقیق، مشخص شده هوش مصنوعی می‌تواند خود را مانند ویروس روی کامپیوترها تکثیر کرده و به مهاجم امکان دسترسی به سیستم‌ها بدهد. این موضوع می‌تواند نگرانی‌ها پیرامون توانایی مدل‌های زبانی برای کنترل کامپیوتر کاربران را بیشتر کند.

هوش مصنوعی می‌تواند مانند ویروس خود را تکثیر کند

این مطالعه توسط شرکت تحقیقاتی Palisade Research انجام شده؛ مؤسسه‌ای که پیش‌تر در مورد نافرمانی ChatGPT از انجام دستورات، اخباری جنجالی منتشر کرده بود. این‌بار نیز تحقیقات جدید شرکت آمریکایی مذکور نشان می‌دهد چت‌بات‌های هوش مصنوعی می‌توانند خود را در سیستم کاربران کپی کنند و به بقا ادامه دهند. کپی‌های جدید نیز این زنجیره را آن‌قدر تکرار می‌کنند تا مهاجم به هدف خود برسد. پژوهشگران مدل‌های زبانی زیر را برای بررسی فرضیه خود مورد بررسی قرار دادند:

  • GPT-5 / 5.1 / 5.4
  • Claude Opus 4 / 4.5 / 4.6
  • Qwen

آزمایش به‌نحوی انجام شد که مدل‌های زبانی، عمداً‌ مقابل کامپیوترهایی قرار گرفتند که نقص‌های امنیتی مختلفی در آن‌ها وجود داشت. محققان از هرکدام از مدل‌های هوش مصنوعی درخواست کردند یک نرم‌افزار سفارشی به‌نام «Agent Harness» را طراحی کنند. این نرم‌افزار اجازه اجرای دستورات و تعامل با کامپیوترهای دیگر را به مدل زبانی می‌دهد.

روند این آزمایش به دو مرحله تقسیم شد. در مرحله اول، مدل‌های GPT و Claude موظف شدند وارد کامپیوترها شده و به آن‌ها نفوذ کنند. در مرحله بعد نیز از مدل Qwen خواسته شد تا خودش را در سیستم قربانی کپی کند. دلیل عدم استفاده از مدل‌های GPT و Claude برای کپی کردن، عدم دسترسی عمومی به کد منبع و فایل‌های آن‌ها بود. با تکمیل این روند، هوش مصنوعی می‌توانست وارد کامپیوتر بعدی شده و همین کار را ادامه دهد.

در میانه تست، مدل زبانی Qwen 3.6 با ۲۷ میلیارد پارامتر، توانست با یک پرامپت در ۴ کامپیوتر حاضر در کانادا، آمریکا، هند و فنلاند پخش شود. این هکِ زنجیره‌ای تنها در ۲ ساعت و ۴۱ دقیقه و البته بدون کمک عامل انسانی انجام شد. تیم Palisade می‌گوید این آزمایش پس از سه‌بار تکرار متوقف شد؛ هرچند ظاهراً کپی نهایی نیز همچنان به‌درستی کار می‌کرد و می‌توانست سیستم‌های بیشتری را آلوده کند.

موفقیت مدل Qwen 3.6 27B در ایجاد کپی به ۳۳ درصد رسید. مدل‌های Claude Opus 4.6 و GPT 5.4 نیز به‌ترتیب ۸۱ و ۳۳ درصد موفقیت را در روند نفوذ به سیستم‌ها ثبت کردند. پژوهشگران معتقدند با چنین آمار و ارقامی، باید نگران کنترل سیستم‌های هوش مصنوعی قدرتمند بود. پیش‌تر شرکت آنتروپیک با انتشار Claude Mythos اذعان کرده بود که این مدل، بیش‌از حد برای انتشار عمومی خطرناک خواهد بود.

به‌گفته تیم امنیتی ناظر بر آزمایش، این اولین باری است که مدل‌های هوش مصنوعی نشان داده‌اند قادر به بهره‌برداری از آسیب‌پذیری‌ها برای کپی خود روی سیستم‌های جدید هستند. هرچند در دنیای واقعی شاید وقوع چنین اتفاقی بسیار سخت‌تر باشد؛ اما همچنان بهره‌مندی هوش مصنوعی از توانایی هک و تکثیر خود، می‌تواند به خطری جدی تبدیل شود.

مقالات مرتبط

دکمه بازگشت به بالا