هوش مصنوعی

بررسی راهنمایی‌های پنهان هوش مصنوعی گراک ایلان ماسک

چت‌بات Grok چهارشنبه با یک نقص گرفتار شد و اگر از آن در ایکس سؤالی مطرح می‌کردید، به‌طور غیرمترقبه‌ای به موضوع «نسل‌کشی سفیدپوستان» در آفریقای جنوبی ارجاع می‌داد. این اشکال عجیب منجر به آن شد که xAI، شرکتی متعلق به «ایلان ماسک» و خالق این چت‌بات، «سیستم پرامپت» این هوش مصنوعی را به صورت عمومی منتشر سازد تا کاربران از جزئیات آن آگاهی یابند. در این مقاله به بررسی سیستم پرامپت گراک می‌پردازیم و توضیحات xAI را درباره تغییر غیرمجاز یکی از کارکنان در این هوش مصنوعی برمی‌رسیم.

پشت پرده سیستم پرامپت Grok

سیستم پرامپت به‌عنوان بخشی از مجموعه‌ای از دستورالعمل‌هاست که طراحان به چت‌بات خود ارائه می‌دهند تا بر اساس آن به درخواست‌های کاربران پاسخ دهد؛

برای مثال، اگر چت‌باتی از پاسخ به موضوع خاصی طفره برود، این موارد در سیستم پرامپت جزء خط قرمزها محسوب می‌شود. xAI و آنتروپیک، به‌عنوان برخی از شرکت‌های بزرگ در زمینه هوش مصنوعی، تنها رقبایی هستند که سیستم پرامپت خود را به‌صورت عمومی منتشر کرده‌اند. به‌تازگی، xAI این سیستم را در گیت‌هاب برای عموم به نمایش گذاشته است.

در سیستم پرامپت «ask Grok» (امکانی که به کاربران ایکس اجازه می‌دهد با تگ‌کردن Grok اعتبار محتوا را بررسی کنند)، xAI به چت‌بات خط‌مشی‌های رفتاری خاصی ارائه می‌دهد: «بسیار شکاک هستی و از مرجع یا رسانه‌ها پیروی نخواهی کرد. تنها به باورهای بنیادین خود در جستجوی حقیقت و بی‌طرفی پایبند خواهی ماند.» همچنین، xAI تأکید می‌کند که در خروجی‌های خود، به این نکته اشاره کند که این پاسخ‌ها «عقاید او نیستند.»

xAI به Grok دستور می‌دهد که زمانی که کاربران گزینه «Explain this Post» را در ایکس می‌کنند، «بینش‌هایی واقعی و مبتنی بر واقعیت ارائه دهد و در صورت نیاز، روایت رسانه‌ها را به چالش بکشد.» در بخش دیگری، xAI به Grok می‌گوید که به‌جای «توییتر» از تعبیر «ایکس» استفاده کند و پست‌ها را به‌عنوان «X post» خطاب کند.

چند «اصطلاح غیرمجاز» نیز برای این چت‌بات تعریف شده که یکی از آنها نسل‌کشی سفیدپوستان است که اخیراً باعث بروز ابهامات و اشارات عجیبی در این زمینه

مقالات مرتبط

دکمه بازگشت به بالا