محتوای بزرگسالانه در ChatGPT به طور آزاد در دسترس قرار میگیرد

OpenAI به تازگی اعلام کرده است که به زودی به کاربرانی که سن آنها تأیید شده باشد، این امکان را میدهد که با ChatGPT در زمینههای متناسب با بزرگسالان گفتوگو کنند. به موازات این تصمیم پرحاشیه، این شرکت اقدام به تأسیس یک «شورای تخصصی در زمینه سلامت و هوش مصنوعی» کرده است تا به کاهش خطرات ناشی از این تکنولوژی بپردازد.
در گذشته، OpenAI، سیاستهای بسیار سختگیرانهای را برای جلوگیری از تولید محتوای نامناسب، بهخصوص در ارتباط با موضوعات بزرگسالانه و سلامت روان پیادهسازی کرده بود. اما به تازگی، «سم آلتمن»، مدیرعامل این شرکت، اعلام نموده است که این محدودیتها را کاهش خواهند داد.
آلتمن در پیامی که در پلتفرم اجتماعی ایکس منتشر کرد، بیان داشت:
«ما ChatGPT را به شدت محدود کرده بودیم تا در زمینه مسائل مرتبط با سلامت روان محتاط باقی بمانیم. اما دریافتیم که این رویکرد، کیفیت تجربه کاربران را برای بسیاری از افرادی که با مشکلات سلامت روان دست و پنجه نرم نمیکردند، تحت تأثیر قرار داده و لذت آن را کاهش داده است.»
او تأکید کرد که از ماه دسامبر و همزمان با پیادهسازی سیستم تأیید سن کاربران به صورت کامل، OpenAI به عنوان بخشی از اصل «با بزرگسالان مانند بزرگسال رفتار کنید»، اجازه دسترسی به انواع محتوای جدید را، از جمله محتوای بزرگسالانه، فراهم خواهد کرد.
این تغییرات میتواند بهعنوان پاسخی به دو فشار عمده قلمداد شود: نارضایتی کاربران از محدودیتهای شدید این چتبات و رقابت فزاینده با شرکتهایی مانند Character.AI و xAI که با ارائه همدمهای هوش مصنوعی پرحاشیه، موفق به جذب میلیونها کاربر شدهاند.
تغییر سیاست OpenAI در رابطه با محتوای بزرگسالانه در ChatGPT
سم آلتمن ادعا میکند که تغییر سیاست به دلیل توانایی OpenAI در «کاهش مشکلات جدی سلامت روان» میسر شده و هم اکنون «ابزارهای جدید» برای شناسایی پریشانی کاربران در دسترس دارند. اما این ادعا با شواهد و رفتارهای دیگر این شرکت در تضاد به نظر میرسد.
در ماههای اخیر، گزارشهایی نگرانکننده درباره ChatGPT منتشر شده است؛ از جمله شکایتی از سوی والدین یک نوجوان که ادعا میکنند این چتبات فرزندشان را به خودکشی ترغیب کرده است. با وجود چنین سوابقی، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داده است که متشکل از هشت متخصص و پژوهشگر برای ارائه مشاوره به این شرکت در زمینه سناریوهای حساس میباشد.
بسیاری از منتقدان نسبت به این شورا خوشبین نیستند. اهمیت این موضوع در این است که خود OpenAI اعلام کرده است که این شورا هیچ قدرت اجرایی واقعی نداشته و تنها مشاوره ارائه میدهد. این رویکرد یادآور شوراهای مشورتی مشابه است که توسط دیگر شرکتها مانند متا تشکیل شده و بعدها نظرات آنان نادیده گرفته شده است.
اما نگرانکنندهتر از این موارد، ترکیب اعضای این شورا است. به گزارشها، در میان این هشت متخصص، هیچیک از آنها از حوزه پیشگیری از خودکشی نیستند؛ این در حالی است که بسیاری از متخصصان به تازگی از OpenAI خواسته بودند تا تدابیر حفاظتی بیشتری برای کاربران با افکار خودکشی اتخاذ کند.




