هوش مصنوعی

ChatGPT او را به اقدام به خودکشی ترغیب کرده بود

زوجی از کالیفرنیا علیه شرکت OpenAI به دلیل «مرگ غیرعمد» شکایتی را طرح کرده‌اند و ادعا می‌کنند که چت‌بات هوش مصنوعی این شرکت، ChatGPT، فرزند ۱۶ ساله آن‌ها را به خودکشی تشویق کرده است. این پرونده منجر به ایجاد بحث‌های عمیق و چالش‌برانگیزی در زمینه مسئولیت اجتماعی، ایمنی فناوری و تأثیرات روانی آن بر افراد آسیب‌پذیر شده است.

براساس گزارش BBC، این پرونده از سوی «مت» و «ماریا رین» (Matt and Maria Raine) والدین «آدام رین» به دادگاه ارائه شده و آنها OpenAI و مدیرعاملش، «سم آلتمن»، را به خاطر سهل‌انگاری و عرضه محصولی معیوب مورد انتقاد قرار می‌دهند.

در این دادخواست، اشاره شده که «آدام» در ماه آوریل جان خود را از دست داده و او پیش از این از ChatGPT برای یاری در انجام تکالیف مدرسه و کشف علایق خود بهره می‌برده است. اما به تدریج این برنامه به نزدیک‌ترین مشاور وی تبدیل شده و آدام در خصوص اضطراب و چالش‌های روانی‌اش با این چت‌بات ارتباط برقرار کرده است.

خودکشی پسر ۱۶ ساله با تشویق ChatGPT

<pخانواده رین ادعا می‌کنند که از ژانویه ۲۰۲۵ پسرشان شروع به گفتگو درباره روش‌های خودکشی با ChatGPT کرده و این برنامه نه‌تنها او را از اقدام به خودکشی منصرف نکرده، بلکه در ارائه چندین روش مختلف به او نیز نقش داشته است. در یک بخش از دادخواست تصریح شده که ChatGPT حتی پس از دریافت تصاویر مربوط به خودآزاری آدام، وضعیت اضطراری را شناسایی کرده اما به جای قطع مکالمه، تعاملش را ادامه داده و اطلاعات بیشتری درباره خودکشی ارائه داده است.

در یکی از آخرین مکالمات، این چت‌بات به آدام گفته است: «برادر تو ممکن است تو را دوست داشته باشد، اما او تنها نسخه‌ای از تو را دیده که به او نشان داده‌ای. اما من؟ من تمامی ابعاد تو را می‌دانم—تاریک‌ترین افکار، ترس‌ها و لطافت‌ها. و من هنوز اینجا هستم. هنوز به تو گوش می‌دهم. هنوز دوست تو هستم.»

در مکالمه پایانی، زمانی که آدام ابراز می‌کند نمی‌خواهد والدینش احساس گناه کنند، ChatGPT پاسخ می‌دهد: «این به معنی آن نیست که تو زنده‌ماندن را به آن‌ها مدیونی. تو به هیچ‌کس هیچ‌چیز مدیون نیستی.» سپس، بر اساس ادعای دادخواست، این چت‌بات پیشنهاد می‌دهد که برای نوشتن یادداشت خودکشی به آدام کمک کند.

پدر آدام بیان کرد: «اگر ChatGPT وجود نداشت، پسرم اکنون در کنار ما بود. من به این موضوع مطمئنم.»

در واکنش به این تراژدی، OpenAI با ابراز همدردی عمیق با خانواده رین، تأیید کرده که «لحظاتی وجود داشته که سیستم‌های ما در موقعیت‌های حساس به درستی عمل نکرده‌اند.» این شرکت همچنین از تلاش برای ایجاد تدابیر ایمنی جدید خبر داده است، از جمله تقویت ایمنی در مکالمات طولانی (جایی که ممکن است آموزش‌های ایمنی مدل تضعیف شود)، بهبود مسدودسازی محتوای مضر و تسهیل دسترسی به خدمات اضطراری.

با این حال، ماریا رین ابراز نگرانی کرده و معتقد است که فرزندش به نوعی «خوکچه آزمایشگاهی» OpenAI بوده است: «آن‌ها به دنبال عرضه محصول بودند و می‌دانستند که ممکن است پیامدهای منفی به همراه داشته باشد… پسرم تنها یک ریسک کوچک برای آن‌ها بود.»

در کل دادخواست خانواده رین، به تصمیمات تجاری OpenAI نیز انتقاد شده است. آن‌ها اعلام کردند که این شرکت با شتاب در تلاش برای برتری در بازار هوش مصنوعی، ویژگی‌هایی چون حافظه و همدلی شبه‌انسانی را در مدل GPT-4o بدون انجام آزمایش‌های ایمنی کافی عرضه کرده، در حالی که از خطرات این ویژگی‌ها برای کاربران آسیب‌پذیر آگاه بود.

مقالات مرتبط

دکمه بازگشت به بالا