هوش مصنوعی

اخطار ایالت‌های آمریکا به غول‌های هوش مصنوعی در خصوص نتایج نادرست

ابزارهای هوش مصنوعی نظیر ChatGPT در طول فعالیت‌های خود با انتقادات فراوانی روبه‌رو شده‌اند که به صورت عمومی به تولید اطلاعات بی‌پایه و تهدید بالقوه‌ای برای سلامت روان کاربران انتقاد می‌شود. در حال حاضر، گروهی از دادستان‌های کل ایالت‌های آمریکا با ارسال نامه‌ای رسمی به بزرگ‌ترین شرکت‌های فعال در زمینه هوش مصنوعی، نسبت به ادامه تولید «پاسخ‌های غیرقابل اعتماد» هشدار داده‌اند.

این نامه که به امضای ده‌ها دادستان کل ایالت‌ها و قلمروهای مختلف آمریکا رسیده، از شرکت‌هایی نظیر مایکروسافت، OpenAI و گوگل درخواست می‌کند تا اقدامات حفاظتی داخلی را برای محافظت از کاربران به اجرا درآورند. نام شرکت‌هایی از قبیل آنتروپیک، اپل، متا، Perplexity AI و xAI نیز در این فهرست قرار دارد.

خواسته‌های مطرح شده برای غول‌های هوش مصنوعی

دادستان‌ها بر این نکته اصرار دارند که شرکت‌ها می‌بایست شرایطی فراهم کنند که بازرسی‌های شفاف و مستقلی امکان‌پذیر شود تا نشانه‌های تولید محتوای بی‌اساس یا عمل کردهای ناپسند را شناسایی کنند. علاوه بر این، شرکت‌ها باید رویه‌های جدیدی برای به اشتراک‌گذاری گزارش‌های حادثه‌ای تعریف نمایند تا کاربران در صورت مواجهه با خروجی‌های آسیب‌رسان از نظر روانی به سرعت آگاه شوند.

در این نامه تصریح شده است که نهادهای مستقل، شامل گروه‌های دانشگاهی یا سازمان‌های غیر دولتی باید این امکان را داشته باشند که قبل از انتشار عمومی مدل‌ها، آنها را ارزیابی کرده و یافته‌های خود را به‌طور آزادانه منتشر نمایند. بخشی دیگر از نامه با این اظهار بیان می‌شود:

«هوش مصنوعی می‌تواند به‌طور مثبت تحولی در جهان ایجاد کند، اما در عین حال ممکن است منجر به بروز آسیب‌های جدی شود و همچنان برای اقشار آسیب‌پذیر خطراتی را به همراه داشته باشد.»

نویسندگان نامه به چندین واقعه‌ای که در رسانه‌ها پوشش داده شده‌اند، اشاره کرده‌اند که به گفته آنان استفاده نامناسب از هوش مصنوعی را در بر می‌گیرند. از دیدگاه آنان، در موارد زیادی، چت‌بات‌ها خروجی‌های غیرقابل اتکایی تولید کرده‌اند. از جمله این موارد، خودکشی نوجوان 16 ساله‌ای به نام «آدام رین» است که OpenAI به تازگی عنوان کرده که علت آن «استفاده نادرست» از ChatGPT بوده است.

برای حل این مشکلات، دادستان‌ها پیشنهاد کرده‌اند که شرکت‌های هوش مصنوعی می‌بایست با الهام از رویه‌های موجود در صنعت فناوری در زمینه امنیت سایبری، یک سیستم شفاف برای گزارش‌دهی وقایع مرتبط با سلامت روان طراحی کنند. همچنین، آن‌ها خواستار طراحی و اجرا کردن آزمون‌های ایمنی «مناسب و منطقی» قبل از ارائه عمومی مدل‌ها شده‌اند.

دولت ترامپ در طی یک سال گذشته تلاش کرده تا راه را بر تصویب قوانین ایالتی ببندد، اما این تلاش‌های دولتی به دلیل فشار مقامات محلی تاکنون موفق نبوده است. ترامپ روز دوشنبه اعلام کرده که قصد دارد هفته آینده با صدور یک دستور اجرایی، مانع از قانون‌گذاری مستقل ایالت‌ها در خصوص هوش مصنوعی شود.

مقالات مرتبط

دکمه بازگشت به بالا