هوش مصنوعی

محتوای بزرگسالانه در ChatGPT به طور آزاد در دسترس قرار می‌گیرد

OpenAI به تازگی اعلام کرده است که به زودی به کاربرانی که سن آن‌ها تأیید شده باشد، این امکان را می‌دهد که با ChatGPT در زمینه‌های متناسب با بزرگسالان گفت‌وگو کنند. به موازات این تصمیم پرحاشیه، این شرکت اقدام به تأسیس یک «شورای تخصصی در زمینه سلامت و هوش مصنوعی» کرده است تا به کاهش خطرات ناشی از این تکنولوژی بپردازد.

در گذشته، OpenAI، سیاست‌های بسیار سخت‌گیرانه‌ای را برای جلوگیری از تولید محتوای نامناسب، به‌خصوص در ارتباط با موضوعات بزرگسالانه و سلامت روان پیاده‌سازی کرده بود. اما به تازگی، «سم آلتمن»، مدیرعامل این شرکت، اعلام نموده است که این محدودیت‌ها را کاهش خواهند داد.

آلتمن در پیامی که در پلتفرم اجتماعی ایکس منتشر کرد، بیان داشت:

«ما ChatGPT را به شدت محدود کرده بودیم تا در زمینه مسائل مرتبط با سلامت روان محتاط باقی بمانیم. اما دریافتیم که این رویکرد، کیفیت تجربه کاربران را برای بسیاری از افرادی که با مشکلات سلامت روان دست و پنجه نرم نمی‌کردند، تحت تأثیر قرار داده و لذت آن را کاهش داده است.»

او تأکید کرد که از ماه دسامبر و همزمان با پیاده‌سازی سیستم تأیید سن کاربران به صورت کامل، OpenAI به عنوان بخشی از اصل «با بزرگسالان مانند بزرگسال رفتار کنید»، اجازه دسترسی به انواع محتوای جدید را، از جمله محتوای بزرگسالانه، فراهم خواهد کرد.

این تغییرات می‌تواند به‌عنوان پاسخی به دو فشار عمده قلمداد شود: نارضایتی کاربران از محدودیت‌های شدید این چت‌بات و رقابت فزاینده با شرکت‌هایی مانند Character.AI و xAI که با ارائه همدم‌های هوش مصنوعی پرحاشیه، موفق به جذب میلیون‌ها کاربر شده‌اند.

تغییر سیاست OpenAI در رابطه با محتوای بزرگسالانه در ChatGPT

سم آلتمن ادعا می‌کند که تغییر سیاست به دلیل توانایی OpenAI در «کاهش مشکلات جدی سلامت روان» میسر شده و هم اکنون «ابزارهای جدید» برای شناسایی پریشانی کاربران در دسترس دارند. اما این ادعا با شواهد و رفتارهای دیگر این شرکت در تضاد به نظر می‌رسد.

در ماه‌های اخیر، گزارش‌هایی نگران‌کننده درباره ChatGPT منتشر شده است؛ از جمله شکایتی از سوی والدین یک نوجوان که ادعا می‌کنند این چت‌بات فرزندشان را به خودکشی ترغیب کرده است. با وجود چنین سوابقی، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داده است که متشکل از هشت متخصص و پژوهشگر برای ارائه مشاوره به این شرکت در زمینه سناریوهای حساس می‌باشد.

بسیاری از منتقدان نسبت به این شورا خوشبین نیستند. اهمیت این موضوع در این است که خود OpenAI اعلام کرده است که این شورا هیچ قدرت اجرایی واقعی نداشته و تنها مشاوره ارائه می‌دهد. این رویکرد یادآور شوراهای مشورتی مشابه است که توسط دیگر شرکت‌ها مانند متا تشکیل شده و بعدها نظرات آنان نادیده گرفته شده است.

اما نگران‌کننده‌تر از این موارد، ترکیب اعضای این شورا است. به گزارش‌ها، در میان این هشت متخصص، هیچ‌یک از آن‌ها از حوزه پیشگیری از خودکشی نیستند؛ این در حالی است که بسیاری از متخصصان به تازگی از OpenAI خواسته بودند تا تدابیر حفاظتی بیشتری برای کاربران با افکار خودکشی اتخاذ کند.

مقالات مرتبط

دکمه بازگشت به بالا