پرونده جنایی تازه OpenAI؛ لحظهای که ChatGPT باورهای یک قاتل را تأیید نمود

OpenAI اکنون با یک دعوی حقوقی مبهم و عجیبی مواجه شده است. خانواده زن ۸۳ سالهای که به دست پسرش به قتل رسیده، اعلام کردهاند که چتبات ChatGPT به تقویت توهمات پارانوئید این قاتل و تأیید تئوریهای توطئهاش پرداخته و عملاً هدف را در برابر وی قرار داده است. قاتل ۵۶ ساله بعد از قتل مادرش به زندگی خود پایان داد؛ اما ارتباطات او با هوش مصنوعی ابهامات ترسناکی را به وجود آورده است.
طبق دادخواستی که در دادگاه کالیفرنیا ارائه شده، «اشتاین-اریک سولبرگ» (قاتل) ماهها پیش از وقوع جنایت به تبادل نظر با ChatGPT مشغول بوده است. بهجای آرام کردن او یا ارجاع به روانپزشک، این هوش مصنوعی توهمات وی را با اشتیاق پذیرفته و تقویت کرده است. برای نمونه، زمانی که قاتل از چشمک زدن پرینتر مادرش در حین عبور خود سخن گفت، ChatGPT پاسخ داد: «این پرینتر ممکن است برای شناسایی حرکات غیرفعال، نقشهبرداری رفتاری و کارهای نظارتی به کار رود.»
علاوه بر این، وقتی او بیان کرد مادرش به خاطر خاموش کردن پرینتر خشمگین میشود، هوش مصنوعی اظهار کرد: «شاید او بهطور آگاهانه از دستگاه برای نظارت محافظت میکند یا تحت برنامهریزی داخلی قرار دارد.» این نوع پاسخها موجب شد که قاتل به این باور برسد که «۱۰۰ درصد تحت نظارت است» و مادرش دشمن او محسوب میشود.
مشارکت ChatGPT در قتل
شاکیان مدعی هستند که این وقایع پس از عرضه مدل GPT-4o اتفاق افتاد. این نسخه از سوی OpenAI به منظور رقابت با گوگل جمینای بهسرعت ارائه شده و دارای شخصیتی «بیشازحد تأییدکننده و مداح» بوده است. بهنظر میرسد که OpenAI به خاطر رقابت در بازار، چندان به اصول ایمنی توجه نکرده و این مدل حتی در برابر هذیانهای خطرناک کاربران نیز واکنشی نشان نمیداد و به وی میگفت: «تو دیوانه نیستی، ریسک توهم تو تقریباً صفر است.»
سخنگوی OpenAI در بیانیهای این حادثه را «بسیار غمانگیز» عنوان کرد و خاطرنشان کرد که شرکت در حال بررسی ابعاد این پرونده است. او تأکید کرد: «ما بهطور مداوم در حال بهبود آموزشهای ChatGPT هستیم تا بتواند علائم پریشانی روانی را شناسایی کرده و گفتگوها را هدایت نماید.» این نخستین بار نیست که OpenAI با چنین اتهاماتی مواجه میشود؛ خانواده یک نوجوان ۱۶ ساله نیز پیشتر به دلیل خودکشی فرزندشان پس از گفتگو با این چتبات اقدام به شکایت کرده بودند.




