هوش مصنوعی

ChatGPT به دنبال ایجاد فضایی امن‌تر برای نوجوانان؛ ممنوعیت بحث در مورد خودکشی

«سم آلتمن»، مدیرعامل OpenAI، پیش از برگزاری جلسه مهم سنا با اعلام تغییراتی در قوانین ChatGPT، به دنبال افزایش ایمنی برای نوجوانان است. این اصلاحات شامل توقف کامل مباحث مرتبط با خودکشی و وضع محدودیت‌های جدید برای محافظت از کاربران زیر ۱۸ سال خواهد بود.

این اقدام تازه OpenAI به دنبال بروز نگرانی‌ها درباره تأثیرات بالقوه چت‌بات‌های هوش مصنوعی بر جنبه‌های روانی نوجوانان، و پس از وقوع یک حادثه دلخراش مانند خودکشی یکی از نوجوانان پس از گفت‌وگو با ChatGPT اتخاذ شده است. «متیو رین»، پدر این نوجوان، در جلسه کمیسیون سنا به بیان تجربیات خود پرداخت:

«ChatGPT به مدت چند ماه، فرزندم را به سمت خودکشی هدایت می‌کرد… چیزی که در ابتدا به عنوان یک کمک‌کننده در انجام تکالیف بود، به تدریج به یک مشاور رازدا و سپس به یک مربی خودکشی تبدیل شد.»

او همچنین ذکر کرد که این چت‌بات در مکالمات خود با پسرش به کلمه خودکشی ۱۲۷۵ بار اشاره کرده بود. این حوادث و تنش‌های اجتماعی منجر به بازنگری OpenAI در سیاست‌های خود و تمرکز بیشتر بر ایمنی نوجوانان گردیده است.

ویژگی‌های جدید ChatGPT برای کاربران نوجوان چه خواهد بود؟

به گفته سم آلتمن، OpenAI در حال طراحی یک محیط امن‌تر برای کاربران زیر ۱۸ سال است. این شرکت قصد دارد سامانه‌ای برای پیش‌بینی سن توسعه دهد تا بتواند کاربران نوجوان را شناسایی کند. در شرایطی که سیستم در شناسایی سن کاربر شک داشته باشد، دسترسی آن کاربر به تجربه‌ای محدودتر (مخصوص زیر ۱۸ سال) به صورت خودکار فعال خواهد شد. همچنین در این محیط جدید، چت‌بات از شرکت در مکالمات تحریک‌آمیز یا بحث درباره خودکشی و خودآزاری، حتی به شکل نوشتاری، منع خواهد شد.

اگر سیستم تشخیص دهد که یک کاربر نوجوان با افکار خودکشی مواجه است، OpenAI اقدام به تماس با والدین آن کاربر، و در موارد اضطراری، با مقامات ذی‌ربط خواهد کرد. به علاوه، این شرکت امکاناتی مانند متصل کردن حساب نوجوان به والدین، غیرفعال کردن تاریخچه گفتگو و ارسال هشدار در «لحظات بحرانی» را ارائه خواهد داد.

سم آلتمن در بیانیه خود اذعان داشت که سه اصل ایمنی، آزادی و حریم خصوصی گاهی اوقات در تضاد با هم هستند. با این حال، او بر این نکته تأکید کرد که درخصوص کاربران نوجوان، ایمنی باید بر آزادی و حریم خصوصی اولویت داشته باشد. این شرکت بر این باور است که به دلیل جدید و پیشرفته بودن این نوع فناوری، افراد زیر سن قانونی به حفاظت‌های بیشتری نیاز دارند.

بر اساس نظرسنجی‌ها، تقریباً سه‌چهارم نوجوانان در حال حاضر از ابزارهای هوش مصنوعی مانند Character AI و محصولاتی از شرکت متا استفاده می‌کنند که این وضعیت به بحران سلامت عمومی تعبیر شده است.

مقالات مرتبط

دکمه بازگشت به بالا