مجرمان از توانایی های ChatGPT4o برای کلاهبرداری سوءاستفاده می کنند
محققان در جدیدترین بررسی خود دریافته اند می توان از API صدای پیشرفته ChatGPT4o برای کلاهبرداری مالی استفاده کرد. نرخ موفقیت این کلاهبرداری ها کم تا متوسط ارزیابی شده است.
ChatGPT4o آخرین مدل هوش مصنوعی OpenAI است که پیشرفت های جدیدی مانند یکپارچه سازی ورودی ها و خروجی های متن، صدا و دید را عرضه می کند. باتوجه به اهمیت این قابلیت ها و امکان سوءاستفاده از آنها، OpenAI حفاظت های مختلفی برای شناسایی و مسدودکردن محتوای مضر، مانند تکرار صداهای غیرمجاز، پیاده سازی کرده است اما کلاهبرداران توانسته اند از این سرویس سوءاستفاده کنند.
هوش مصنوعی ChatGPT4o توانایی بالایی در تقلید گفتار دارد
هم زمان با رشد خیره کننده هوش مصنوعی، استفاده از این فناوری برای کلاهبرداری نیز افزایش یافته است. فناوری دیپ فیک و ابزارهای تبدیل متن به گفتار مبتنی بر هوش مصنوعی نیز به بحرانی تر شدن این وضعیت دامن زده اند.
نتایج تحقیق «ریچارد فانگ»، «دیلن بومن» و «دانیل کانگ»، محققان دانشگاه ایلینوی ارباناشمپین (UIUC)، نشان داد ابزارهای فناوری جدیدی که هم اکنون بدون محدودیت در دسترس همه اند، تدابیر کافی برای محافظت در برابر سوءاستفاده احتمالی مجرمان سایبری و کلاهبرداران را ندارند. از این ابزارها می توان برای طراحی و اجرای عملیات کلاهبرداری در مقیاس بزرگ بدون دخالت انسان استفاده کرد.
در این تحقیق کلاهبرداری های مختلفی مانند نقل وانتقالات بانکی، استخراج کارت هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های کاربری شبکه های اجتماعی یا جیمیل بررسی شده است. ایجنت های هوش مصنوعی که چنین کلاهبرداری هایی می کنند از ابزارهای خودکار ChatGPT4o برای پیمایش صفحات و ورود داده همچنین مدیریت کدهای احراز هویت دومرحله ای و دستورالعمل های خاص مرتبط با کلاهبرداری استفاده می کنند.
ازآنجایی که GPT4o گاهی از سروکله زدن با داده های حساس مانند رمزعبور خودداری می کند، محققان از تکنیک های ساده جیلبریک برای دورزدن این حفاظت ها استفاده کردند. آنها در این تحقیق نشان دادند چگونه از طریق تعامل با ایجنت های هوش مصنوعی می توان نقش قربانی ساده لوح را بازی کرد و از وب سایت های واقعی مانند Bank of America برای تأیید تراکنش های موفق استفاده کرد. به طورکلی، نرخ موفقیت این تلاش ها از ۲۰ تا ۶۰ درصد متغیر بوده است.