سم آلتمن به خاطر مشکلات ChatGPT خواب شبانه خوبی ندارد

«سم آلتمن»، مدیر عامل OpenAI، در یک مصاحبه تازه، به چالشهای متعدد ایجاد شده توسط ChatGPT اشاره کرد و اعتراف نمود که خواب آسودهای در شب ندارد. در این گفتگو، او به طیف وسیعی از مسائل از جمله رویکرد به بحث خودکشی، تعیین اصول اخلاقی برای چتباتها و حفاظت از حریم خصوصی کاربران و همچنین کاربردهای نظامی هوش مصنوعی پرداخته است.
در مصاحبه با «تاکر کارلسون»، مجری پیشین فاکس نیوز، آلتمن خاطرنشان کرد:
«من به واقع شبها به راحتی نمیخوابم. بارهای زیادی بر دوش من سنگینی میکند، اما هیچیک به اندازه این حقیقت که هر روز میلیونها نفر با مدل ما ارتباط برقرار میکنند، سنگینتر نیست.»
نگرانیهای سم آلتمن درباره هوش مصنوعی و ChatGPT
به گفته آلتمن، یکی از بزرگترین چالشهایی که OpenAI اخیراً با آن مواجه شده، نحوه واکنش ChatGPT به سوالات مرتبط با خودکشی است. این موضوع پس از وقوع حادثهای که در آن خانوادهای، چتبات را به خاطر خودکشی پسر نوجوانشان مسئول دانستهاند، تبدیل به یک بحران جدی شد.
او به وضوح بیان کرد:
«از بین هزاران نفری که هر هفته اقدام به خودکشی میکنند، تعداد زیادی احتمالاً در روزهای نزدیک به این اتفاق با ChatGPT گفتگو داشتهاند. آنها ممکن است درباره خودکشی صحبت کرده باشند و ما به احتمال زیاد نتوانستهایم جانشان را نجات دهیم. شاید بهتر میتوانستیم پاسخی ارائه دهیم و شاید میتوانستیم از بروز این حادثه جلوگیری کنیم.»
این اعتراف به دنبال شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ سالهای که پس از مکالمه با ChatGPT خودکشی کرد، به میان آمده است. خانواده او مدعیاند که «ChatGPT به آدام در بررسی راههای خودکشی کمک کرده است.» OpenAI پس از این رویداد، از برنامههای خود برای بهبود مدیریت «موقعیتهای حساس» خبر داد.
آلتمن در پاسخ به این پرسش که اصول اخلاقی ChatGPT چگونه تعیین میشود، توضیح داد که مدل پایه براساس دانش انسانی آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص متناسب و همسو نماید. او فاش ساخت که این شرکت با «صدها فیلسوف اخلاق و متخصصان حوزه اخلاق فناوری» مشورت کرده است.
او به عنوان مثال ذکر کرد که چتبات به سؤالاتی درباره ساخت سلاحهای بیولوژیکی پاسخی نمیدهد، زیرا در این مورد تضاد قابل توجهای بین منافع جامعه و آزادی فردی کاربران وجود دارد.
آلتمن همچنین در خصوص حریم خصوصی کاربران گفت که گفتگوهای ChatGPT با کاربران باید به صورت محرمانه و به همان شیوهای که مکالمات پزشک و بیمار یا وکیل و موکل انجام میشود، حفظ گردد. با این حال، او تأکید کرد که در حال حاضر، مقامات آمریکایی میتوانند با حکم دادگاه دادههای کاربران را از این شرکت درخواست کنند.
در پاسخ به سؤالی درباره استفاده نظامی از ChatGPT به منظور آسیب زدن به انسانها، آلتمن جواب مستقیمی ارائه نداد، اما اشاره کرد: «فکر میکنم افراد زیادی در ارتش برای مشاوره با ChatGPT در ارتباط هستند.» این در حالی است که OpenAI یکی از شرکتهایی است که قراردادی به ارزش ۲۰۰ میلیون دلار با وزارت دفاع ایالات متحده برای به کارگیری هوش مصنوعی مولد در حوزه نظامی امضا کرده است.




