سم آلتمن نسبت به وابستگی بیش از حد کاربران به ChatGPT نگرانی خود را بیان کرد
«سم آلتمن»، مدیرعامل OpenAI، در سخنانی که نگرانکننده بود، ابراز کرد که با وجود مزایای بالقوهای که وجود دارد، از افزایش استفاده عمومی از ChatGPT به عنوان «مشاور روانی یا راهنمای زندگی» و اعتماد افراد به این چتبات برای تصمیمگیریهای کلیدی زندگی خود، احساس نگرانی میکند.
وی در توییتی مفصل که آن را «افتخارات امروز» خود اعلام کرد و نه نقطهنظر رسمی OpenAI، به یک روند فزاینده اشاره نمود و گفت: «بسیاری از اشخاص به ChatGPT به عنوان نوعی درمانگر یا راهنمای زندگی نگاه میکنند، حتی اگر خودشان آن را به این شکل توصیف نکنند.»
او با تأکید بر اینکه این موضوع میتواند «بسیار مثبت» باشد و بسیاری از افراد در حال حاضر از آن بهرهمند میشوند، جنبههای منفی این وضعیت را نیز برجسته ساخت. او گفت این ارتباط در شرایطی مضر میشود که «کاربران با ChatGPT رابطهای برقرار کنند که باعث شود پس از گفتگو احساس بهبودی کنند، در حالی که بدون آگاهی از بهبودی واقعی در درازمدت دور میشوند.»
علاوه بر این، او وابستگی به این ابزار را یکی از نگرانیهای جدی دیگری برشمرد و افزود: «این وضعیت مناسب نیست اگر کاربری بخواهد میزان استفادهاش از ChatGPT را کاهش دهد اما احساس کند که نمیتواند از آن دوری کند.»
نظرات سم آلتمن در مورد اعتماد مردم به ChatGPT
آلتمن فاش کرد که OpenAI به مدت یک سال است که به طور جدی «حس وابستگی» کاربران به مدلهای هوش مصنوعی خاص را زیر نظر دارد. او اعتراف کرد که این وابستگی، «متفاوت و قویتر» از دیگر وابستگیهای فناورانه پیشین است. به عنوان نمونه، او به بازخوردهای منفی پس از بهروزرسانی GPT-5 و جایگزینی آن با مدل محبوب GPT-4 اشاره کرد. بسیاری از کاربران به دلیل لحن یکنواخت و غیرخلاقانه مدل جدید شکایت کرده و خواستار بازگشت مدل قبل شدهاند. آلتمن در توییتش، حذف ناگهانی مدلهای قدیمی را که کاربران به آنها وابستگی پیدا کرده بودند، یک «اشتباه» خواند.
در یکی از بخشهای اظهارات خود، آلتمن به مسئولیت اخلاقی در برخورد با کاربران آسیبپذیر اشاره کرد:
«افراد تکنولوژی، از جمله هوش مصنوعی را به شیوههایی مخرب به کار گرفتهاند. ما نمیخواهیم هوش مصنوعی به تقویت مشکلات روانی افرادی که در وضعیت آسیبپذیری قرار دارند کمک کند.»
وی تأکید کرد که هرچند بیشتر کاربران میتوانند مرز بین واقعیت و خیال را تشخیص دهند، اما گروهی کوچک قادر به این کار نیستند.
آلتمن پیشتر در یک پادکست، به خطرات حقوقی اشاره کرده و هشدار داد که اگر کاربری از ChatGPT در مکالمات حساس و درمانی استفاده کند، امکان دارد در آینده و در جریان یک پرونده حقوقی، OpenAI مجبور شود که محتوای آن مکالمات را به مراجع قضایی ارائه دهد.
آلتمن به آیندهای اشاره میکند که در آن میلیاردها نفر برای حیاتیترین تصمیمات زندگی خود به مشاوره هوش مصنوعی روی میآورند. او بیان داشت که اگرچه این افق او را «مضطرب» میکند، اما بر این باور است که جامعه و OpenAI باید به دنبال مسیری برای تبدیل این پدیده به یک نتیجه مثبت باشند.