هوش مصنوعی

سم آلتمن نسبت به بروز یک بحران بزرگ کلاهبرداری از طریق هوش مصنوعی هشدار داد

«سم آلتمن»، مدیر عامل OpenAI، در سخنرانی اخیر خود در فدرال رزرو ایالات متحده به خطرات ناشی از هوش مصنوعی اشاره کرد و آن را یک «بحران بزرگ کلاهبرداری» خواند. او پیش‌بینی کرد که به زودی این فناوری به همگان این قابلیت را خواهد داد که صدا و تصاویر دیگران را به روشی کاملاً باورپذیر تقلید کنند؛ تهدیدی که به گفته او، می‌تواند اساس امنیت مالی و اعتماد اجتماعی را تهدید کند.

آلتمن در گفتگویش با نایب رئیس نظارت فدرال رزرو، عمیقاً از آینده امنیت در دوران هوش مصنوعی ابراز نگرانی کرد. او اظهار داشت: «هوش مصنوعی به‌طور کامل قادر است که تقریبا تمامی روش‌های فعلی احراز هویت، به جز رمزهای عبور، را شکست دهد.»

وی به‌طور خاص به ضعف‌های موجود در سیستم‌های بانکی اشاره کرد و گفت: «آنچه مرا به شدت نگران می‌کند این است که هنوز هم مؤسسات مالی وجود دارند که یک اثر صوتی را به عنوان مدرک احراز هویت برای انجام انتقالات کلان می‌پذيرند.» آلتمن از این تهدید به عنوان مسئله‌ای فوری نام برد و اعلام کرد: «در حال حاضر تنها تماس‌های صوتی در معرض خطر هستند؛ اما خیلی زود تماس‌های ویدیویی یا فیس‌تایم نیز به امری غیرقابل تمایز از واقعیت تبدیل خواهند شد.»

هشدار سم آلتمن در خصوص کلاهبرداری‌های ناشی از هوش مصنوعی

این نگرانی‌ها فقط در حد پیش‌بینی نیستند. شواهد بالفعل نشان می‌دهند که این بحران هم‌اکنون در حال شکل‌گیری است؛ تا به‌حال، موارد متعددی از کلاهبردارانی گزارش شده که با تقلید صدای افراد، از خانواده‌های آنان تقاضای باج کرده‌اند یا کارمندان شرکت‌ها را برای انتقال وجوه فریب داده‌اند.

در سال گذشته، FBI در خصوص تهدید فزاینده مجرمان سایبری که از هوش مصنوعی برای اجرای حملات فیشینگ و کلاهبرداری‌هایی که شامل تقلید صدا و تصویر می‌شوند، هشدار داده بود. در یکی از موارد عجیب، فردی با بهره‌گیری از هوش مصنوعی خود را به‌جای «مارکو روبیو»، وزیر امور خارجه ایالات متحده جا زده و با چندین مقام ارشد تماس گرفته بود.

نکته قابل تأمل در هشدار آلتمن، نقش خود OpenAI در این بحران است. آلتمن در این گفتگو سعی کرد شرکت خود را از این مسئله تبرئه کند و تصریح کرد که «OpenAI در حال توسعه ابزارهایی برای جعل هویت نیست.» اما منتقدان خاطرنشان می‌کنند که مدل پیشرفته تولید ویدیو این شرکت، یعنی Sora، ممکن است به‌دقت برای تولید ویدیوهای جعلی و دیپ‌فیک‌هایی که آلتمن درباره آن‌ها هشدار می‌دهد، به کار رود.

مقالات مرتبط

دکمه بازگشت به بالا