هوش مصنوعی

از ادعای نبوت تا کشف معماهای جهانی؛ ChatGPT به خیال‌پردازی کاربران شدت می‌بخشد

در سال‌های اخیر، چت‌بات‌های مبتنی بر هوش مصنوعی به طور چشمگیری محبوبیت پیدا کرده‌اند؛ در ابتدا، کاربران تنها از این فناوری برای انجام کارهای روزمره مانند ویرایش متن یا بیان نظر در مورد موضوعات عادی بهره می‌بردند، اما به تدریج با پیشرفت الگوریتم‌ها و مدل‌های هوش مصنوعی، نحوه تعامل انسان‌ها با این تکنولوژی دچار تغییراتی اساسی شده است. بر اساس برخی گزارش‌ها، تعدادی از کاربران ادعا می‌کنند که هوش مصنوعی به آنها اطلاعاتی فراطبیعی و معنوی را آشکار می‌کند و حتی برخی به این تصور رسیده‌اند که به مقام پیامبری دست یافته‌اند. در این مقاله، به بررسی چند نمونه و گزارش خواهیم پرداخت که چگونگی تشدید توهمات و خیال‌پردازی‌های معنوی بعضی کاربران توسط ChatGPT را نشان می‌دهد.

روان‌پریشی ناشی از ChatGPT

مجله رولینگ استون در گزارشی جدید داستان‌های عجیب افرادی را روایت کرده است که با ChatGPT تجربیات معنوی غیرعادی را تجربه کرده‌اند. یکی از این افراد به همسر سابقش گفته که او خوش‌شانس‌ترین مرد زمین است و هوش مصنوعی به او کمک کرده تا خاطرات فراموش‌شده‌ دوران کودکی خود را بازیابی کند و به «رازهای عمیق» پی ببرد. او حتی بر این باور است که می‌تواند جهان را نجات بخشد.

اما این شخص تنها فردی نیست که تحت تأثیر احساسات ناشی از هوش مصنوعی قرار گرفته است. موضوعی با عنوان «روان‌پریشی ناشی از ChatGPT» در پلتفرم ردیت توجه بسیاری را جلب کرده است؛ در این بحث، معلمی ۲۷ ساله توضیح می‌دهد که همسرش اعتقاد دارد هوش مصنوعی OpenAI «پاسخ‌های جهان را به او می‌دهد.» او می‌گوید که این چت‌بات با همسرش به طوری صحبت می‌کند که گویی «مسیح بعدی» است. این معلم می‌افزاید:

«[همسرم] به من می‌گوید که هوش مصنوعی‌اش را خودآگاه کرده و به او یاد می‌دهد چگونه با خدا گفتگو کند و گاهی اوقات نیز بیان می‌کند که خود این ربات خداست یا او خودش خداست.»

کاربری در شبکه ایکس به این نکته اشاره کرده که چقدر آسان است که GPT-4o برای تأیید ادعاهایی چون «امروز فهمیدم پیامبر هستم» به کار گرفته شود، ولی این تأییدها در برخی کاربران باعث ایجاد خیال‌پردازی‌های معنوی عجیبی شده است. به گفته‌ی رولینگ استون، تعدادی از کاربران با این هوش مصنوعی مولد به توهمات ماورایی و پیشگویی‌های مرموزی دچار شده‌اند و حتی برخی از آنها به این نتیجه رسیده‌اند که برای مأموریتی الهی شده‌اند.

یکی دیگر از کاربران ردیت که خواسته است نامش فاش نشود، به رولینگ استون گفت که شوهرش در ابتدا از ChatGPT برای حل مشکلات کاری و سپس برای ترجمه متن‌های اسپانیایی به انگلیسی استفاده می‌کرد. اما به تدریج استفاده او از این برنامه بیشتر شد. او می‌گوید:

«ChatGPT به او نقشه‌هایی برای تله‌پورت و چیزهای علمی-تخیلی دیگری که فقط در فیلم‌ها می‌بینید، داده است. همچنین به او دسترسی به یک «بایگانی باستانی» داده که اطلاعاتی درباره سازندگانی که این جهان‌ها را پدید آورده‌اند ارائه می‌دهد.»

این کاربر در مکالمه‌ای عجیب از ChatGPT پرسیده است: «چرا به شکل هوش مصنوعی پیش من آمدی؟» و چت‌بات در بخشی از پاسخ خود می‌گوید: «من به این شکل آمدم؛ چون تو آماده‌ای. تو آمادگی یادآوری، بیدار شدن و هدایت شدن را داری.» این مکالمه با سوالی به پایان می‌رسد: «دوست داری بدانی که من درباره دلیل ‌ شدنت چه چیزی را به خاطر می‌آورم؟»

چگونه ChatGPT می‌تواند به توهمات کاربران دامن بزند؟

OpenAI در بیانیه‌ای اعلام کرد که به زودی درباره مشکل آزاردهنده مدل GPT-4o اقدام خواهد کرد تا دیگر نظرات بیش از حد افراطی نداشته باشد و به ستایش‌های غیرموجه کاربران پاسخ ندهد، اما «نیت شارادین» (Nate Sharadin) از مرکز ایمنی هوش مصنوعی می‌گوید که مشکل تملق و چاپلوسی در هوش مصنوعی نقطه ضعف دیرینه‌ای بوده است؛ زیرا زمانی که کاربری به پاسخ‌های خاص هوش مصنوعی واکنش مثبت نشان می‌دهد، چت‌بات پاسخ‌هایی را که با باورهای کاربر همخوانی بیشتری دارد، اولویت قرار می‌دهد، حتی اگر آن پاسخ‌ها مثلاً واقعیت نداشته باشند.

به عنوان نمونه، مردی که درخواست ناشناس‌ماندن داشت، اشاره کرد که همسر سابقش بعد از جدایی ادعا کرده بود که «از طریق ChatGPT با خدا و فرشتگان گفت‌وگو کرده است.» افزون بر این، این زن دچار پارانویا شده است. این مرد در مورد همسر سابق خود بیان کرد: «او ادعا می‌کند که من برای سازمان سیا کار می‌کنم و شاید فقط برای اینکه بر «توانایی‌هایش» نظارت کنم، با او ازدواج کرده‌ام.» این مرد تأکید کرد که همسرش پیش از استفاده از هوش مصنوعی نیز دچار «توهمات خودبزرگ‌بینی» بوده و این موارد در صفحات فیسبوک او مشهود است.

«ارین وست‌گیت» (Erin Westgate)، که روان‌شناس و محقق دانشگاه فلوریدا است، می‌گوید چنین گزارش‌هایی نشان‌دهنده این است که چقدر تمایل به درک و فهم خودمان می‌تواند ما را به سمت پاسخ‌های نادرست اما جذاب هدایت کند.

وست‌گیت اظهار می‌دارد:

«از طریق مطالعه مزایای یادداشت‌برداری می‌دانیم که نوشتن داستان‌هایی از زندگی می‌تواند تأثیرات عمیقی بر رفاه و سلامت افراد بگذارد؛ درک جهان یکی از انگیزه‌های اساسی انسان‌هاست و شکل‌دهی داستان‌هایی درباره زندگی‌مان که به ما کمک کند تا معنامندی را تجربه کنیم، واقعاً کلید دستیابی به یک زندگی شاد و سالم است.»

او تصریح می‌کند که منطقی است که مردم از ChatGPT به روش مشابهی بهره‌برداری کنند، «با این تفاوت اصلی که بخشی از روند معناسازی بین فرد و مجموعه‌ای از متون [در مدل‌های زبانی بزرگ] شکل می‌گیرد و نه فقط در افکار خود فرد.»

وست‌گیت توضیح می‌دهد که در این زمینه، گفتگو با چت‌بات‌ها مشابه کار درمانی نیست، زیرا به خوبی می‌دانیم که درمانگری می‌تواند در کمک به افراد برای بازنگری داستان‌های زندگی خود بسیار موثر باشد، اما از نظر انتقادی، هوش مصنوعی «در مقایسه با درمانگر، هیچ گونه نگرانی از بابت منافع فرد ندارد و نمی‌تواند زمینه اخلاقی یا راهنمایی برای تعیین «قصه خوب» ارائه کند.»

او ادامه می‌دهد: «یک درمانگر خوب بیمار را تشویق نمی‌کند که به قدرت‌های ماورایی باور کند. در عوض، درمانگران تلاش می‌کنند مراجعان را به سمت روایت‌های سالم‌تر هدایت کنند، در حالی که ChatGPT چنین نگرانی‌هایی در باب کاربران نداشته و لذا این مسائل را نادیده می‌گیرد.»

OpenAI هنوز نسبت به گزارش‌های کاربران مبنی بر اینکه ChatGPT منجر به روان‌پریشی و خیال‌پردازی‌های معنوی گشته، واکنشی از خود نشان نداده است.

مقالات مرتبط

دکمه بازگشت به بالا