هوش مصنوعی

سم آلتمن نسبت به وابستگی بیش از حد کاربران به ChatGPT نگرانی خود را بیان کرد

«سم آلتمن»، مدیرعامل OpenAI، در سخنانی که نگران‌کننده بود، ابراز کرد که با وجود مزایای بالقوه‌ای که وجود دارد، از افزایش استفاده عمومی از ChatGPT به عنوان «مشاور روانی یا راهنمای زندگی» و اعتماد افراد به این چت‌بات برای تصمیم‌گیری‌های کلیدی زندگی خود، احساس نگرانی می‌کند.

وی در توییتی مفصل که آن را «افتخارات امروز» خود اعلام کرد و نه نقطه‌نظر رسمی OpenAI، به یک روند فزاینده اشاره نمود و گفت: «بسیاری از اشخاص به ChatGPT به عنوان نوعی درمانگر یا راهنمای زندگی نگاه می‌کنند، حتی اگر خودشان آن را به این شکل توصیف نکنند.»

او با تأکید بر اینکه این موضوع می‌تواند «بسیار مثبت» باشد و بسیاری از افراد در حال حاضر از آن بهره‌مند می‌شوند، جنبه‌های منفی این وضعیت را نیز برجسته ساخت. او گفت این ارتباط در شرایطی مضر می‌شود که «کاربران با ChatGPT رابطه‌ای برقرار کنند که باعث شود پس از گفتگو احساس بهبودی کنند، در حالی که بدون آگاهی از بهبودی واقعی در درازمدت دور می‌شوند.»

علاوه بر این، او وابستگی به این ابزار را یکی از نگرانی‌های جدی دیگری برشمرد و افزود: «این وضعیت مناسب نیست اگر کاربری بخواهد میزان استفاده‌اش از ChatGPT را کاهش دهد اما احساس کند که نمی‌تواند از آن دوری کند.»

نظرات سم آلتمن در مورد اعتماد مردم به ChatGPT

آلتمن فاش کرد که OpenAI به مدت یک سال است که به طور جدی «حس وابستگی» کاربران به مدل‌های هوش مصنوعی خاص را زیر نظر دارد. او اعتراف کرد که این وابستگی، «متفاوت و قوی‌تر» از دیگر وابستگی‌های فناورانه پیشین است. به عنوان نمونه، او به بازخوردهای منفی پس از به‌روزرسانی GPT-5 و جایگزینی آن با مدل محبوب GPT-4 اشاره کرد. بسیاری از کاربران به دلیل لحن یکنواخت و غیرخلاقانه مدل جدید شکایت کرده و خواستار بازگشت مدل قبل شده‌اند. آلتمن در توییتش، حذف ناگهانی مدل‌های قدیمی را که کاربران به آن‌ها وابستگی پیدا کرده بودند، یک «اشتباه» خواند.

در یکی از بخش‌های اظهارات خود، آلتمن به مسئولیت اخلاقی در برخورد با کاربران آسیب‌پذیر اشاره کرد:

«افراد تکنولوژی، از جمله هوش مصنوعی را به شیوه‌هایی مخرب به کار گرفته‌اند. ما نمی‌خواهیم هوش مصنوعی به تقویت مشکلات روانی افرادی که در وضعیت آسیب‌پذیری قرار دارند کمک کند.»

وی تأکید کرد که هرچند بیشتر کاربران می‌توانند مرز بین واقعیت و خیال را تشخیص دهند، اما گروهی کوچک قادر به این کار نیستند.

آلتمن پیش‌تر در یک پادکست، به خطرات حقوقی اشاره کرده و هشدار داد که اگر کاربری از ChatGPT در مکالمات حساس و درمانی استفاده کند، امکان دارد در آینده و در جریان یک پرونده حقوقی، OpenAI مجبور شود که محتوای آن مکالمات را به مراجع قضایی ارائه دهد.

آلتمن به آینده‌ای اشاره می‌کند که در آن میلیاردها نفر برای حیاتی‌ترین تصمیمات زندگی خود به مشاوره هوش مصنوعی روی می‌آورند. او بیان داشت که اگرچه این افق او را «مضطرب» می‌کند، اما بر این باور است که جامعه و OpenAI باید به دنبال مسیری برای تبدیل این پدیده به یک نتیجه مثبت باشند.

مقالات مرتبط

دکمه بازگشت به بالا