هوش مصنوعی

سم آلتمن به خاطر مشکلات ChatGPT خواب شبانه خوبی ندارد

«سم آلتمن»، مدیر عامل OpenAI، در یک مصاحبه تازه، به چالش‌های متعدد ایجاد شده توسط ChatGPT اشاره کرد و اعتراف نمود که خواب آسوده‌ای در شب ندارد. در این گفتگو، او به طیف وسیعی از مسائل از جمله رویکرد به بحث خودکشی، تعیین اصول اخلاقی برای چت‌بات‌ها و حفاظت از حریم خصوصی کاربران و همچنین کاربردهای نظامی هوش مصنوعی پرداخته است.

در مصاحبه با «تاکر کارلسون»، مجری پیشین فاکس نیوز، آلتمن خاطرنشان کرد:

«من به واقع شب‌ها به راحتی نمی‌خوابم. بارهای زیادی بر دوش من سنگینی می‌کند، اما هیچیک به اندازه این حقیقت که هر روز میلیون‌ها نفر با مدل ما ارتباط برقرار می‌کنند، سنگین‌تر نیست.»

نگرانی‌های سم آلتمن درباره هوش مصنوعی و ChatGPT

به گفته آلتمن، یکی از بزرگ‌ترین چالش‌هایی که OpenAI اخیراً با آن مواجه شده، نحوه واکنش ChatGPT به سوالات مرتبط با خودکشی است. این موضوع پس از وقوع حادثه‌ای که در آن خانواده‌ای، چت‌بات را به خاطر خودکشی پسر نوجوانشان مسئول دانسته‌اند، تبدیل به یک بحران جدی شد.

او به وضوح بیان کرد:

«از بین هزاران نفری که هر هفته اقدام به خودکشی می‌کنند، تعداد زیادی احتمالاً در روزهای نزدیک به این اتفاق با ChatGPT گفتگو داشته‌اند. آن‌ها ممکن است درباره خودکشی صحبت کرده باشند و ما به احتمال زیاد نتوانسته‌ایم جانشان را نجات دهیم. شاید بهتر می‌توانستیم پاسخی ارائه دهیم و شاید می‌توانستیم از بروز این حادثه جلوگیری کنیم.»

این اعتراف به دنبال شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ ساله‌ای که پس از مکالمه با ChatGPT خودکشی کرد، به میان آمده است. خانواده او مدعی‌اند که «ChatGPT به آدام در بررسی راه‌های خودکشی کمک کرده است.» OpenAI پس از این رویداد، از برنامه‌های خود برای بهبود مدیریت «موقعیت‌های حساس» خبر داد.

آلتمن در پاسخ به این پرسش که اصول اخلاقی ChatGPT چگونه تعیین می‌شود، توضیح داد که مدل پایه براساس دانش انسانی آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص متناسب و همسو نماید. او فاش ساخت که این شرکت با «صدها فیلسوف اخلاق و متخصصان حوزه اخلاق فناوری» مشورت کرده است.

او به عنوان مثال ذکر کرد که چت‌بات به سؤالاتی درباره ساخت سلاح‌های بیولوژیکی پاسخی نمی‌دهد، زیرا در این مورد تضاد قابل توجه‌ای بین منافع جامعه و آزادی فردی کاربران وجود دارد.

آلتمن همچنین در خصوص حریم خصوصی کاربران گفت که گفتگوهای ChatGPT با کاربران باید به صورت محرمانه و به همان شیوه‌ای که مکالمات پزشک و بیمار یا وکیل و موکل انجام می‌شود، حفظ گردد. با این حال، او تأکید کرد که در حال حاضر، مقامات آمریکایی می‌توانند با حکم دادگاه داده‌های کاربران را از این شرکت درخواست کنند.

در پاسخ به سؤالی درباره استفاده نظامی از ChatGPT به منظور آسیب زدن به انسان‌ها، آلتمن جواب مستقیمی ارائه نداد، اما اشاره کرد: «فکر می‌کنم افراد زیادی در ارتش برای مشاوره با ChatGPT در ارتباط هستند.» این در حالی است که OpenAI یکی از شرکت‌هایی است که قراردادی به ارزش ۲۰۰ میلیون دلار با وزارت دفاع ایالات متحده برای به کارگیری هوش مصنوعی مولد در حوزه نظامی امضا کرده است.

مقالات مرتبط

دکمه بازگشت به بالا