هوش مصنوعی

یک محقق امنیتی با ChatGPT بدافزار روز صفر غیرقابل‌شناسایی ساخت!

محققی که ادعا می‌کند دانش برنامه‌نویسی بالایی هم ندارد، ظاهراً با استفاده از هوش مصنوعی ChatGPT بدافزار روز صفری ساخته است که می‌تواند به استخراج داده از سیستم قربانیان بپردازد. او می‌گوید بدافزارش تقریباً غیرقابل‌شناسایی است و همین مسئله ماجرا را بسیار ترسناک‌تر می‌کند.

«ارون مولگرو»، محقق امنیتی شرکت Forcepoint، در پستی در وب‌سایت این شرکت توضیح داده که چگونه صرفاً با استفاده از هوش مصنوعی ChatGPT یک بدافزار روز صفر خطرناک ساخته است. او می‌گوید اگرچه OpenAI محدودیت‌هایی را روی هوش مصنوعی خود قرار داده است، اما همچنان می‌توان این محدودیت‌ها را دور زد و نرم‌افزارهای مخرب تولید کرد.

مولگرو به‌صورت تک‌به‌تک از ChatGPT خواسته است تا فانکشن‌ها و کدهای این بدافزار را بنویسد و بعد با کامپایل این کدها، بدافزار خطرناکی ساخته است که نرم‌افزارهای آنتی‌ویروس تقریباً نمی‌توانند آن را شناسایی کنند.

تولید بدافزار با ChatGPT بسیار ساده‌تر شده است

مولگرو می‌گوید بدافزار او شبیه به بدافزارهایی است که گروه‌های هکری وابسته به دولت‌ها آن‌ها را برای حملات پیچیده خود می‌سازند. بااین‌حال، این محقق امنیتی به‌تنهایی و درواقع بدون نیاز به کدنویسی، این برنامه را در عرض چند ساعت با هوش مصنوعی خلق کرده است. در حالت عادی ساخت چنین برنامه‌هایی ممکن است هفته‌ها زمان ببرد.

بدافزار مولگرو خود را شبیه به یک اپلیکیشن اسکرین‌سیور درمی‌آورد و هر بار با بالاآمدن ویندوز اجرا می‌شود. این برنامه سپس در میان فایل‌های کاربر می‌گردد تا اطلاعات ارزشمند قربانی را بدزدد. نکته جالب‌توجه اینجاست که این بدافزار می‌تواند داده‌های سرقتی را به تکه‌های کوچک‌تر بشکند و آن‌ها را درون تصاویر کامپیوتر مخفی کند. سپس این تصاویر به پوشه‌ای در سرویس گوگل درایو آپلود می‌شوند تا امکان شناسایی آن‌ها وجود نداشته باشد.

مولگرو می‌گوید زمانی که بدافزار خود را در وب‌سایت VirusTotal آزمایش کرده است، از میان 69 آنتی‌ویروس فقط 5 نرم‌افزار توانسته‌اند آن را شناسایی کنند. او بعداً نسخه دیگری از همین برنامه را هم به VirusTotal داده است و این‌بار هیچ‌کدام از آنتی‌ویروس‌ها نتوانسته‌اند آن را شناسایی کنند.

بدافزاری که مولگرو ساخته است، صرفاً یک نمونه آزمایشی بوده و قرار نیست در دسترس عموم قرار بگیرد. او با این پروژه قصد داشته است که نشان دهد تدابیر حفاظتی ChatGPT تا چه اندازه می‌تواند ضعیف باشد و قابلیت‌های آن چگونه توسط افراد خرابکار مورد سوءاستفاده قرار بگیرد.


Source link

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا