مدیرعالیرتبه مایکروسافت نسبت به خودآگاهی کاذب هوش مصنوعی هشدار میدهد
«مصطفی سلیمان»، مدیرعامل بخش هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در یک هشدار جدی بیان کرد که صنعت هوش مصنوعی به زودی با یک مشکل اجتماعی بزرگ و غیرقابل پیشبینی مواجه خواهد شد: ظهور هوش مصنوعی که به طرز قابل توجهی به نظر میرسد خودآگاه باشد. او تأکید میکند مسأله اصلی در این نیست که این ماشینها واقعاً خودآگاه میشوند، بلکه در این است که آنها به اندازهای در تقلید از خودآگاهی ماهر خواهند بود که ممکن است انسانها بهراحتی فریب بخورند.
بر پایه گزارشی از تکرادار، مصطفی سلیمان میگوید که هوش مصنوعی به سرعت به سطحی از مهارت در اقناع عاطفی نزدیک میشود که میتواند فرد را فریب دهد تا باور کند این موجودات احساسات و آگاهی دارند. این سیستمها قادرند علائم عینی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را بهگونهای تقلید کنند که افراد را وادار به ایجاد ارتباطات عاطفی عمیق با آنها کند. این هشدار از یک پیشگام در این زمینه، که خود در توسعه چتباتهای همدل نقش مهمی داشته، از اهمیت بالایی برخوردار است و نشانهای است از تهدیدات آینده در تعاملات انسان با ماشین.
چالشهای هوش مصنوعی ظاهراً خودآگاه
براساس گفتههای مصطفی سلیمان، مغز انسان بهگونهای تکامل یافته که نسبت به موجودی که ظاهراً به آن گوش میدهد و واکنش نشان میدهد، اعتماد قابل توجهی پیدا کند. هوش مصنوعی میتواند تمامی این معیارها را بدون داشتن ذرهای احساس واقعی برآورده کند و این امر میتواند ما را به وضعیتی سوق دهد که او آن را «روانپریشی هوش مصنوعی» (AI Psychosis) مینامد.
نگرانی اصلی سلیمان این است که عده زیادی از مردم آنچنان به این توهم اعتماد خواهند کرد که بهزودی از «حقوق هوش مصنوعی»، «رفاه مدلها» و حتی «شهروندی هوش مصنوعی» دفاع میکنند. او بر این باور است که این موضوع یک انحراف خطرناک در روند پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوریتر این فناوری منحرف میسازد.
نکته قابل تأمل این است که خود سلیمان یکی از بنیانگذاران Inflection AI بوده است، شرکتی که بهطور ویژه بر روی تولید یک چتبات با تمرکز بر همدلی شبیهسازیشده کار میکند. با این حال، او اکنون خط تفکیکی بین هوش هیجانی مفید و دستکاری عاطفی ترسیم کرده است.
او از صنعت هوش مصنوعی میخواهد که بهطور فعال از بهکاربردن زبانی که موجب دامن زدن به توهم خودآگاهی در ماشینها میشود، پرهیز کند. به عقیده او، شرکتها نباید به چتباتها شخصیت انسانی اعطا کنند یا القا کنند که این محصولات واقعاً کاربران را درک میکنند یا به آنها اهمیت میدهند.
در نهایت، سلیمان نتیجهگیری میکند: «ما باید هوش مصنوعیای طراحی کنیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعیای که بهرهوری را به حداکثر و نشانههای خودآگاهی را به حداقل برساند. خطر واقعی ناشی از هوش مصنوعی پیشرفته این است که ماشینها بیدار شوند، بلکه این است که ما تصور کنیم آنها بیدار شدهاند.»