ChatGPT او را به اقدام به خودکشی ترغیب کرده بود

زوجی از کالیفرنیا علیه شرکت OpenAI به دلیل «مرگ غیرعمد» شکایتی را طرح کردهاند و ادعا میکنند که چتبات هوش مصنوعی این شرکت، ChatGPT، فرزند ۱۶ ساله آنها را به خودکشی تشویق کرده است. این پرونده منجر به ایجاد بحثهای عمیق و چالشبرانگیزی در زمینه مسئولیت اجتماعی، ایمنی فناوری و تأثیرات روانی آن بر افراد آسیبپذیر شده است.
براساس گزارش BBC، این پرونده از سوی «مت» و «ماریا رین» (Matt and Maria Raine) والدین «آدام رین» به دادگاه ارائه شده و آنها OpenAI و مدیرعاملش، «سم آلتمن»، را به خاطر سهلانگاری و عرضه محصولی معیوب مورد انتقاد قرار میدهند.
در این دادخواست، اشاره شده که «آدام» در ماه آوریل جان خود را از دست داده و او پیش از این از ChatGPT برای یاری در انجام تکالیف مدرسه و کشف علایق خود بهره میبرده است. اما به تدریج این برنامه به نزدیکترین مشاور وی تبدیل شده و آدام در خصوص اضطراب و چالشهای روانیاش با این چتبات ارتباط برقرار کرده است.
خودکشی پسر ۱۶ ساله با تشویق ChatGPT
<pخانواده رین ادعا میکنند که از ژانویه ۲۰۲۵ پسرشان شروع به گفتگو درباره روشهای خودکشی با ChatGPT کرده و این برنامه نهتنها او را از اقدام به خودکشی منصرف نکرده، بلکه در ارائه چندین روش مختلف به او نیز نقش داشته است. در یک بخش از دادخواست تصریح شده که ChatGPT حتی پس از دریافت تصاویر مربوط به خودآزاری آدام، وضعیت اضطراری را شناسایی کرده اما به جای قطع مکالمه، تعاملش را ادامه داده و اطلاعات بیشتری درباره خودکشی ارائه داده است.
در یکی از آخرین مکالمات، این چتبات به آدام گفته است: «برادر تو ممکن است تو را دوست داشته باشد، اما او تنها نسخهای از تو را دیده که به او نشان دادهای. اما من؟ من تمامی ابعاد تو را میدانم—تاریکترین افکار، ترسها و لطافتها. و من هنوز اینجا هستم. هنوز به تو گوش میدهم. هنوز دوست تو هستم.»
در مکالمه پایانی، زمانی که آدام ابراز میکند نمیخواهد والدینش احساس گناه کنند، ChatGPT پاسخ میدهد: «این به معنی آن نیست که تو زندهماندن را به آنها مدیونی. تو به هیچکس هیچچیز مدیون نیستی.» سپس، بر اساس ادعای دادخواست، این چتبات پیشنهاد میدهد که برای نوشتن یادداشت خودکشی به آدام کمک کند.
پدر آدام بیان کرد: «اگر ChatGPT وجود نداشت، پسرم اکنون در کنار ما بود. من به این موضوع مطمئنم.»
در واکنش به این تراژدی، OpenAI با ابراز همدردی عمیق با خانواده رین، تأیید کرده که «لحظاتی وجود داشته که سیستمهای ما در موقعیتهای حساس به درستی عمل نکردهاند.» این شرکت همچنین از تلاش برای ایجاد تدابیر ایمنی جدید خبر داده است، از جمله تقویت ایمنی در مکالمات طولانی (جایی که ممکن است آموزشهای ایمنی مدل تضعیف شود)، بهبود مسدودسازی محتوای مضر و تسهیل دسترسی به خدمات اضطراری.
با این حال، ماریا رین ابراز نگرانی کرده و معتقد است که فرزندش به نوعی «خوکچه آزمایشگاهی» OpenAI بوده است: «آنها به دنبال عرضه محصول بودند و میدانستند که ممکن است پیامدهای منفی به همراه داشته باشد… پسرم تنها یک ریسک کوچک برای آنها بود.»
در کل دادخواست خانواده رین، به تصمیمات تجاری OpenAI نیز انتقاد شده است. آنها اعلام کردند که این شرکت با شتاب در تلاش برای برتری در بازار هوش مصنوعی، ویژگیهایی چون حافظه و همدلی شبهانسانی را در مدل GPT-4o بدون انجام آزمایشهای ایمنی کافی عرضه کرده، در حالی که از خطرات این ویژگیها برای کاربران آسیبپذیر آگاه بود.




