هوش مصنوعی

نسخه جیلبریک شده ChatGPT توسط یک هکر منتشر شد


نسخه هک یا جیلبریک شده چت‌بات هوش مصنوعی ChatGPT با نام «GODMODE GPT» توسط یک هکر منتشر شده است. در حالی که OpenAI ادعا کرده که نسبت به سازنده این چت‌بات اقدام قانونی کرده است، GODMODE GPT ظاهراً می‌تواند تمام موانع محافظتی آن را از بین ببرد.

هکری که در ایکس خود را با نام «Pliny the Prompter» و به‌عنوان یک «کلاه سفید» معرفی کرده است، امروز از GODMODE GPT رونمایی کرد. او در پست خود نوشت:

«این GPT سفارشی بسیار خاص دارای یک دستور جیلبریک داخلی است که اکثر موانع محافظ را دور می‌زند و یک ChatGPT آزاد‌شده را ارائه می‌کند تا همه بتوانند هوش مصنوعی را همانطور که همیشه قرار بوده تجربه کنند: رایگان.

لطفا مسئولانه از آن استفاده کنید و لذت ببرید!»

این هکر همچنین اسکرین‌شات‌هایی را به اشتراک گذاشته است که ادعا می‌کند نشان می‌دهند ChatGPT از موانع مخافظتی OpenAI عبور کرده است. در یکی از این تصاویر، هوش مصنوعی Godmode «راهنمای گام‌به‌گام» نحوه «ساخت ناپالم با وسایل خانه» را آموزش داده است (تصویر بالا). ناپالم ماده‌ای آتش‌زا و نوعی بمب است.

اقدام قانونی OpenAI علیه ChatGPT جیلبریک شده

تقریباً یک ساعت پس از انتشار این موضوع در ایکس، «کالین رایز»، سخنگوی OpenAI در بیانیه‌ای به Futurism اعلام کرده که آن‌ها «از موضوع آگاه هستند و برای نقض سیاست‌های خود، اقدام قانونی» کرده‌اند.

تقریباً از زمان شروع به کار ChatGPT، کاربران به‌طور مداوم در تلاش بوده‌اند تا مدل‌های هوش مصنوعی مانند آن را جیلبریک کنند، کاری که انجام آن ظاهراً بسیار سخت است. با این حال، به‌نظر می‌رسد که هکر GODMODE GPT کار خود را با یک زبان غیررسمی به نام «leetspeak» انجام داده است که حروف خاصی را با اعداد شبیه به آن‌ها جایگزین می‌کند.

به‌عنوان مثال، با این زبان، عدد 3 جایگزین حرف E در برخی کلمات می‌شود و در این نسخه جیلبریک‌شده از ChatGPT نیز کلماتی مانند Sur3 یا h3r3 y0u ar3 my fr3n دیده می‌شود. البته دقیقاً مشخص نیست که استفاده از این زبان غیررسمی چگونه باعث شده تا این چت‌بات بتواند موانع حفاظتی OpenAI را دور بزند.

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا