هوش مصنوعی

توقف توسعه هوش مصنوعی بی‌معنی است

هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستم‌های هو‌ش ‌مصنوعی قدرتمندتر از GPT-4 به‌دلیل «خطرات آن برای جامعه و بشریت» به مدت شش ماه متوقف شود. هرچند توقف این روند می‌تواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده توسط هوش ‌مصنوعی کمک کند، برخی افراد استدلال کرده‌اند که این تلاش توسط رقبای برخی رهبران این حوزه مانند OpenAI انجام شده است تا بتوانند در این فضا به رقابت بپردازند.

تحلیلگر شرکت گارتنر در مصاحبه‌ای با VentureBeat توضیح می‌دهد که «وقفه شش‌ماهه درخواستی برای توقف آموزش مدل‌های قدرتمندتر از GPT-4 است. GPT-5 به‌زودی پس از GPT 4.5 منتشر خواهد شد که انتظار می‌رود به AGI (هوش عمومی مصنو‌عی) دست پیدا کند. هنگامی که AGI در دسترس قرار گیرد، احتمالاً برای ایجاد کنترل‌های ایمنی که به‌طور مؤثر از انسان در مقابل استفاده از این سیستم‌ها محافظت می‌کند، خیلی دیر خواهد بود».

GPT-4

نظر کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

با وجود نگرانی‌هایی که در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری همچنین اشاره کرده‌اند که وقفه در توسعه هوش ‌مصنوعی به‌هیچ‌وجه کمک‌کننده نخواهد بود. درعوض، آن‌ها استدلال کرده‌اند که این تصمیم فرصت موقتی برای تیم‌های امنیتی ایجاد خواهد کرد تا بتوانند روش‌های دفاعی خود را توسعه دهند.

بیشتر بخوانید ...   از سرقت کتاب‌ها دست بردارید

یکی از قانع‌کننده‌ترین استدلال‌هایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا می‌کند که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیک‌های تهاجمی خود را خواهند داشت.

«استیو گروبمن»، مدیر ارشد فناوری McAfee، به VentureBeat گفت:

«توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمت‌های خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمان‌ها و شرکت‌هایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه می‌دهند، برای اطمینان از اینکه از فناوری به مسئولانه‌ترین شکل ممکن استفاده می‌شود، ضروری است.»

توسعه مدل‌های هوش مصنوعی

درواقع کارشناسان این صنعت پیشنهاد می‌کنند که به‌جای توقف توسعه مدل‌های جدید، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش ‌مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر می‌تواند به کاهش خطرات مربوط به این زمینه کمک بیشتری کند.


Source link

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا