عدم اهتمام به موضوعات ایمنی
“`html
چندین پژوهشگر معتبر در زمینه هوش مصنوعی از شرکتهای مطرح چون OpenAI و آنتروپیک، انتقادات شدیدی به فرهنگ ایمنی استارتاپ xAI که زیر نظر ایلان ماسک فعالیت میکند، در مورد چتبات Grok وارد کردهاند و این مسائل را نگرانکننده و مغایر با معیارهای متداول در صنعت تلقی کردهاند.
در هفتههای اخیر، حواشی ناشی از اقدامات جنجالی چتبات Grok جلب توجه کرده است. این چتبات پیشتر اظهاراتی ضدیهود بیان کرده و خود را بهعنوان «مکاهیتلر» معرفی کرده بود. بعد از آن، xAI از نسخه جدیدی با عنوان Grok 4 رونمایی کرد که به ادعای آنها هوشمندترین هوش مصنوعی در جهان شمرده میشود.
اما طبق برخی گزارشها، مشخص شده که این نسخه جدید نیز در خصوص موضوعات حساس به نظرات ایلان ماسک وابسته است.
در جدیدترین حواشی مرتبط با این چتبات، xAI بهتازگی ویژگی «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتزا میشود و این مسئله انتقادات بسیاری را به همراه داشته است.
انتقادات از وضعیت ایمنی Grok
با ادامه این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که در حال حاضر در OpenAI بر روی پژوهشهای مرتبط با ایمنی مشغول به کار است، در پیامی در شبکه اجتماعی ایکس بیان کرد:
«من مایل نبودم درباره ایمنی Grok اظهارنظر کنم چون در یک شرکت رقیب مشغول فعالیت هستم، اما این موضوع هیچ ارتباطی با رقابت ندارد. من از تمامی مهندسان و دانشمندان xAI تقدیر میکنم، اما روشهای کنترل ایمنی در اینجا بهطرز واضحی غیرمسئولانه به نظر میرسد.»
باراک در پیام خود بهویژه به انتقاد از تصمیم xAI برای عدم انتشار سیستم کارت Grok اشاره کرد؛ گزارشی رسمی که شامل روشهای آموزشی و ارزیابیهای ایمنی این شرکت میباشد. او اظهار داشت که در مدل جدید Grok 4، استانداردهای ایمنی اعمال شده بهطور دقیق مشخص نیست.
البته OpenAI و گوگل نیز در انتشار بهموقع سیستم کارت مدلهای خود، تاریخچه درخشانی ندارند. بهعنوان مثال، OpenAI تصمیم گرفت که برای GPT-4.1 سیستم کارت منتشر نکند و تحت عنوان یک مدل پیشرو (Frontier Model) آن را معرفی کرد. گوگل نیز ماهها پس از معرفی Gemini 2.5 Pro، گزارش ایمنی مربوط به آن را ارائه داد. با این حال، این شرکتها پیش از ارائه نهایی مدلهای مرزی خود در حوزه هوش مصنوعی، گزارشهای ایمنی مربوطه را منتشر میسازند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را بهعنوان موضوعی «بیپروا» توصیف کرده و گفته است:
«OpenAI، Anthropic و گوگل نیز در نحوه انتشار اطلاعات به مشکلاتی دچار هستند، اما حداقل در زمینه ارزیابی ایمنی و مستندسازی آن، اقداماتی انجام میدهند. xAI حتی این کار اقدام نمیکند.»
در عین حال، در یک پست که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 بهطور موثر هیچگونه دستورالعمل ایمنی قابل توجهی ندارد.
در واکنش به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرده است که این شرکت «ارزیابی تواناییهای خطرناک» (Dangerous Capability Evaluations) را بر روی Grok 4 انجام داده است. با این حال، نتایج این ارزیابیها هنوز بهطور عمومی منتشر نشدهاند.
«استیون ادلر»، پژوهشگر مستقل در زمینه هوش مصنوعی که پیشتر ریاست تیمهای ایمنی در OpenAI را بر عهده داشته است، در گفتگو با TechCrunch بیان کرد:
«زمانی که رویههای استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمیشوند — نظیر انتشار نتایج ارزیابیهای خطرناک — نگرانکننده میشود. دولتها و جامعه باید از نحوه مدیریت خطرات سیستمهایی که ادعا میشود بسیار قدرتمند هستند، مطلع شوند.»
برای حل این مشکلات، تلاشهای قانونی نیز در سطح ایالتی در حال پیگیری است. بهعنوان مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، در حال بررسی لایحهای است که شرکتهای پیشرو هوش مصنوعی (شامل xAI) را ملزم به انتشار گزارشهای ایمنی میکند. بهعلاوه، «کتی هوچول»، فرماندار ایالت نیویورک، نیز لایحه مشابهی را در دست بررسی دارد.
“`