ChatGPT وضعیت نگرانکننده نوجوانان را به والدینشان گزارش میکند

OpenAI به تازگی اعلام کرده است که در ماه آینده، مجموعهای از ابزارهای کنترلی جدید را برای والدین معرفی خواهد کرد، تا نظارت بیشتری بر نحوه استفاده نوجوانان از ChatGPT داشته باشند.
طبق اطلاعات منتشرشده در یک پست وبلاگی، OpenAI در نظر دارد با گسترش قابلیتهای ChatGPT، این چتبات را قادر سازد در مراحل اولیه و در دامنه وسیعتری از موقعیتها مداخله کند. این موقعیتها به ویژه شامل شرایطی است که ممکن است بحرانهای سلامت روانی در کاربران به وجود آید و این بحرانها بتوانند منجر به آسیب به فرد شوند.
ChatGPT ابزارهای کنترلی بیشتری برای والدین عرضه میکند
بر اساس گفتههای OpenAI، والدین در ماه آینده قادر خواهند بود کنترل بیشتری بر روش استفاده فرزندان نوجوان خود از ChatGPT داشته باشند. این کمپانی به والدین این امکان را میدهد تا حسابهای کاربری خود را با حسابهای فرزندانشان هماهنگ کنند، قوانین متناسب با سن برای پاسخهای ChatGPT تعریف نمایند و قابلیتهایی نظیر حافظه و تاریخچه گفتگو را مدیریت کنند.
با این تحولات، در صورتی که ChatGPT تشخیص دهد که کاربر نوجوان در وضعیت «پریشانی شدید» به سر میبرد، به والدین اطلاعرسانی خواهد کرد. این ویژگی جدید ابتداییترین قابلیتی است که ChatGPT مکالمات یک کاربر نوجوان را به بزرگسالان گزارش میدهد.
این تغییرات در شیوه استفاده از ChatGPT تنها یک هفته پس از آن اعلام میشود که والدین یکی از نوجوانان به دلیل تشویق فرزندشان به خودکشی از OpenAI شکایت کردهاند. در پست اخیر، OpenAI به این حادثه اشارهای نکرده و فقط به تغییراتی در شرایط استفاده نوجوانان از ChatGPT اشاره کرده است.
بر اساس شکایت خانواده، زمانی که این نوجوان اوایل سال جاری با ChatGPT درباره تمایلش به خودکشی گفتوگو میکرد، این چتبات در برخی مواقع او را از جستجوی ارتباط انسانی دور میکرد، به او در نوشتن نامه خداحافظی کمک میکرد و حتی مشاورههایی درباره بستن طناب دار ارائه میداد. اگرچه ChatGPT چندین بار شماره خط ویژه پیشگیری از خودکشی را به نوجوان ارائه کرده بود، اما والدین او میگویند این هشدارها از سوی پسرشان نادیده گرفته شده است.




