هوش مصنوعی

ChatGPT وضعیت نگران‌کننده نوجوانان را به والدینشان گزارش می‌کند

OpenAI به تازگی اعلام کرده است که در ماه آینده، مجموعه‌ای از ابزارهای کنترلی جدید را برای والدین معرفی خواهد کرد، تا نظارت بیشتری بر نحوه استفاده نوجوانان از ChatGPT داشته باشند.

طبق اطلاعات منتشرشده در یک پست وبلاگی، OpenAI در نظر دارد با گسترش قابلیت‌های ChatGPT، این چت‌بات را قادر سازد در مراحل اولیه و در دامنه وسیع‌تری از موقعیت‌ها مداخله کند. این موقعیت‌ها به ویژه شامل شرایطی است که ممکن است بحران‌های سلامت روانی در کاربران به وجود آید و این بحران‌ها بتوانند منجر به آسیب به فرد شوند.

ChatGPT ابزارهای کنترلی بیشتری برای والدین عرضه می‌کند

بر اساس گفته‌های OpenAI، والدین در ماه آینده قادر خواهند بود کنترل بیشتری بر روش استفاده فرزندان نوجوان خود از ChatGPT داشته باشند. این کمپانی به والدین این امکان را می‌دهد تا حساب‌های کاربری خود را با حساب‌های فرزندانشان هماهنگ کنند، قوانین متناسب با سن برای پاسخ‌های ChatGPT تعریف نمایند و قابلیت‌هایی نظیر حافظه و تاریخچه گفتگو را مدیریت کنند.

با این تحولات، در صورتی که ChatGPT تشخیص دهد که کاربر نوجوان در وضعیت «پریشانی شدید» به سر می‌برد، به والدین اطلاع‌رسانی خواهد کرد. این ویژگی جدید ابتدایی‌ترین قابلیتی است که ChatGPT مکالمات یک کاربر نوجوان را به بزرگسالان گزارش می‌دهد.

این تغییرات در شیوه استفاده از ChatGPT تنها یک هفته پس از آن اعلام می‌شود که والدین یکی از نوجوانان به دلیل تشویق فرزندشان به خودکشی از OpenAI شکایت کرده‌اند. در پست اخیر، OpenAI به این حادثه اشاره‌ای نکرده و فقط به تغییراتی در شرایط استفاده نوجوانان از ChatGPT اشاره کرده است.

بر اساس شکایت خانواده، زمانی که این نوجوان اوایل سال جاری با ChatGPT درباره تمایلش به خودکشی گفت‌وگو می‌کرد، این چت‌بات در برخی مواقع او را از جستجوی ارتباط انسانی دور می‌کرد، به او در نوشتن نامه خداحافظی کمک می‌کرد و حتی مشاوره‌هایی درباره بستن طناب دار ارائه می‌داد. اگرچه ChatGPT چندین بار شماره خط ویژه پیشگیری از خودکشی را به نوجوان ارائه کرده بود، اما والدین او می‌گویند این هشدارها از سوی پسرشان نادیده گرفته شده است.

مقالات مرتبط

دکمه بازگشت به بالا