هوش مصنوعی

مدیرعالی‌رتبه مایکروسافت نسبت به خودآگاهی کاذب هوش مصنوعی هشدار می‌دهد

«مصطفی سلیمان»، مدیرعامل بخش هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در یک هشدار جدی بیان کرد که صنعت هوش مصنوعی به زودی با یک مشکل اجتماعی بزرگ و غیرقابل پیش‌بینی مواجه خواهد شد: ظهور هوش مصنوعی که به طرز قابل توجهی به نظر می‌رسد خودآگاه باشد. او تأکید می‌کند مسأله اصلی در این نیست که این ماشین‌ها واقعاً خودآگاه می‌شوند، بلکه در این است که آن‌ها به اندازه‌ای در تقلید از خودآگاهی ماهر خواهند بود که ممکن است انسان‌ها به‌راحتی فریب بخورند.

بر پایه گزارشی از تک‌رادار، مصطفی سلیمان می‌گوید که هوش مصنوعی به سرعت به سطحی از مهارت در اقناع عاطفی نزدیک می‌شود که می‌تواند فرد را فریب دهد تا باور کند این موجودات احساسات و آگاهی دارند. این سیستم‌ها قادرند علائم عینی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به‌گونه‌ای تقلید کنند که افراد را وادار به ایجاد ارتباطات عاطفی عمیق با آن‌ها کند. این هشدار از یک پیشگام در این زمینه، که خود در توسعه چت‌بات‌های همدل نقش مهمی داشته، از اهمیت بالایی برخوردار است و نشانه‌ای است از تهدیدات آینده در تعاملات انسان با ماشین.

چالش‌های هوش مصنوعی ظاهراً خودآگاه

براساس گفته‌های مصطفی سلیمان، مغز انسان به‌گونه‌ای تکامل یافته که نسبت به موجودی که ظاهراً به آن گوش می‌دهد و واکنش نشان می‌دهد، اعتماد قابل توجهی پیدا کند. هوش مصنوعی می‌تواند تمامی این معیارها را بدون داشتن ذره‌ای احساس واقعی برآورده کند و این امر می‌تواند ما را به وضعیتی سوق دهد که او آن را «روان‌پریشی هوش مصنوعی» (AI Psychosis) می‌نامد.

نگرانی اصلی سلیمان این است که عده زیادی از مردم آن‌چنان به این توهم اعتماد خواهند کرد که به‌زودی از «حقوق هوش مصنوعی»، «رفاه مدل‌ها» و حتی «شهروندی هوش مصنوعی» دفاع می‌کنند. او بر این باور است که این موضوع یک انحراف خطرناک در روند پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوری‌تر این فناوری منحرف می‌سازد.

نکته قابل تأمل این است که خود سلیمان یکی از بنیانگذاران Inflection AI بوده است، شرکتی که به‌طور ویژه بر روی تولید یک چت‌بات با تمرکز بر همدلی شبیه‌سازی‌شده کار می‌کند. با این حال، او اکنون خط تفکیکی بین هوش هیجانی مفید و دستکاری عاطفی ترسیم کرده است.

او از صنعت هوش مصنوعی می‌خواهد که به‌طور فعال از به‌کاربردن زبانی که موجب دامن زدن به توهم خودآگاهی در ماشین‌ها می‌شود، پرهیز کند. به عقیده او، شرکت‌ها نباید به چت‌بات‌ها شخصیت انسانی اعطا کنند یا القا کنند که این محصولات واقعاً کاربران را درک می‌کنند یا به آن‌ها اهمیت می‌دهند.

در نهایت، سلیمان نتیجه‌گیری می‌کند: «ما باید هوش مصنوعی‌ای طراحی کنیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعی‌ای که بهره‌وری را به حداکثر و نشانه‌های خودآگاهی را به حداقل برساند. خطر واقعی ناشی از هوش مصنوعی پیشرفته این است که ماشین‌ها بیدار شوند، بلکه این است که ما تصور کنیم آن‌ها بیدار شده‌اند.»

مقالات مرتبط

دکمه بازگشت به بالا