هوش مصنوعی

عدم اهتمام به موضوعات ایمنی

“`html

چندین پژوهشگر معتبر در زمینه هوش مصنوعی از شرکت‌های مطرح چون OpenAI و آنتروپیک، انتقادات شدیدی به فرهنگ ایمنی استارتاپ xAI که زیر نظر ایلان ماسک فعالیت می‌کند، در مورد چت‌بات Grok وارد کرده‌اند و این مسائل را نگران‌کننده و مغایر با معیارهای متداول در صنعت تلقی کرده‌اند.

در هفته‌های اخیر، حواشی ناشی از اقدامات جنجالی چت‌بات Grok جلب توجه کرده است. این چت‌بات پیش‌تر اظهاراتی ضدیهود بیان کرده و خود را به‌عنوان «مکاهیتلر» معرفی کرده بود. بعد از آن، xAI از نسخه جدیدی با عنوان Grok 4 رونمایی کرد که به ادعای آنها هوشمندترین هوش مصنوعی در جهان شمرده می‌شود.

اما طبق برخی گزارش‌ها، مشخص شده که این نسخه جدید نیز در خصوص موضوعات حساس به نظرات ایلان ماسک وابسته است.

در جدیدترین حواشی مرتبط با این چت‌بات، xAI به‌تازگی ویژگی «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌زا می‌شود و این مسئله انتقادات بسیاری را به همراه داشته است.

انتقادات از وضعیت ایمنی Grok

با ادامه این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که در حال حاضر در OpenAI بر روی پژوهش‌های مرتبط با ایمنی مشغول به کار است، در پیامی در شبکه اجتماعی ایکس بیان کرد:

«من مایل نبودم درباره ایمنی Grok اظهارنظر کنم چون در یک شرکت رقیب مشغول فعالیت هستم، اما این موضوع هیچ ارتباطی با رقابت ندارد. من از تمامی مهندسان و دانشمندان xAI تقدیر می‌کنم، اما روش‌های کنترل ایمنی در اینجا به‌طرز واضحی غیرمسئولانه به نظر می‌رسد.»

باراک در پیام خود به‌ویژه به انتقاد از تصمیم xAI برای عدم انتشار سیستم کارت Grok اشاره کرد؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌باشد. او اظهار داشت که در مدل جدید Grok 4، استانداردهای ایمنی اعمال شده به‌طور دقیق مشخص نیست.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود، تاریخچه درخشانی ندارند. به‌عنوان مثال، OpenAI تصمیم گرفت که برای GPT-4.1 سیستم کارت منتشر نکند و تحت عنوان یک مدل پیشرو (Frontier Model) آن را معرفی کرد. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro، گزارش ایمنی مربوط به آن را ارائه داد. با این حال، این شرکت‌ها پیش از ارائه نهایی مدل‌های مرزی خود در حوزه هوش مصنوعی، گزارش‌های ایمنی مربوطه را منتشر می‌سازند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را به‌عنوان موضوعی «بی‌پروا» توصیف کرده و گفته است:

«OpenAI، Anthropic و گوگل نیز در نحوه انتشار اطلاعات به مشکلاتی دچار هستند، اما حداقل در زمینه ارزیابی ایمنی و مستندسازی آن، اقداماتی انجام می‌دهند. xAI حتی این کار اقدام نمی‌کند.»

در عین حال، در یک پست که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 به‌طور موثر هیچ‌گونه دستورالعمل ایمنی قابل توجهی ندارد.

در واکنش به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرده است که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را بر روی Grok 4 انجام داده است. با این حال، نتایج این ارزیابی‌ها هنوز به‌طور عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل در زمینه هوش مصنوعی که پیشتر ریاست تیم‌های ایمنی در OpenAI را بر عهده داشته است، در گفتگو با TechCrunch بیان کرد:

«زمانی که رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شوند — نظیر انتشار نتایج ارزیابی‌های خطرناک — نگران‌کننده می‌شود. دولت‌ها و جامعه باید از نحوه مدیریت خطرات سیستم‌هایی که ادعا می‌شود بسیار قدرتمند هستند، مطلع شوند.»

برای حل این مشکلات، تلاش‌های قانونی نیز در سطح ایالتی در حال پیگیری است. به‌عنوان مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، در حال بررسی لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (شامل xAI) را ملزم به انتشار گزارش‌های ایمنی می‌کند. به‌علاوه، «کتی هوچول»، فرماندار ایالت نیویورک، نیز لایحه مشابهی را در دست بررسی دارد.

“`

مقالات مرتبط

دکمه بازگشت به بالا