هوش مصنوعی

اشاره به موجودی که در واقعیت وجود ندارد

براساس اطلاعات جدید، مدل پیشرفته پزشکی گوگل به نام Med-Gemini، در یکی از مقالات تحقیقاتی خود به وجود یک بخش غیرواقعی در مغز انسان اشاره کرده است. علاوه بر این، آزمایش‌های اضافی نشان می‌دهند که این سیستم هوش مصنوعی با ایجاد تغییرات جزئی در نحوه مطرح کردن پرسش‌ها، پاسخ‌های به‌طور کامل متفاوتی ارائه می‌دهد. این نوع اشتباهات جدی سبب بروز نگرانی‌هایی درباره به‌کارگیری این فناوری‌های ناپخته در عرصه‌های بالینی گردیده است.

در مقاله‌ای که به‌منظور نمایش توانمندی‌های مدل هوش مصنوعی Med-Gemini توسط خود گوگل منتشر شده، این مدل موفق به شناسایی یک ناهنجاری در سی‌تی‌اسکن سر شده و این ناهنجاری را به «گانگلیون بازیلر» (Basilar Ganglia) نسبت داده است؛ جایی که در واقع وجود خارجی ندارد. این هوش مصنوعی، دو ساختار مغزی کاملاً متفاوت به نام‌های «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب کرده و عبارتی جدید را اختراع کرده است.

متخصصان و پژوهشگران این خطا را به عنوان یک تهدید جدی تلقی می‌کنند. آنها اظهار می‌کنند: «این دو اصطلاح مختلف، تفاوت‌های بسیار زیادی را ایجاد می‌کنند.» تشخیص نادرست این دو ناحیه ممکن است به صدور پروتکل‌های درمانی کاملاً متفاوت و حتی خطرناک برای بیمار منجر گردد.

عضو خیالی مغز که توسط هوش مصنوعی گوگل خلق شد

<pطبق گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه بزرگ را به اطلاع گوگل رساند، این شرکت در ابتدا سعی کرد با ویرایش غیرعلنی پست وبلاگ خود و تغییر عبارت «Basilar» به «Basal»، این موضوع را به عنوان یک «اشتباه تایپی» ساده نمایش دهد. اما با توجه به فشارهای بیشتر، گوگل مجدداً عبارت نادرست را بازگردانده و در توضیحی جدید ادعا کرد که این یک «اشتباه متداول در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اما مشکلات اینجا به پایان نمی‌رسد. آزمایش‌های انجام‌شده توسط متخصصان دیگر نواقص اساسی بیشتری را در این مدل‌های هوش مصنوعی برملا کرده است: ناپایداری در جواب‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی عکسی از رادیوگرافی قفسه سینه را به مدل جدیدتر گوگل، MedGemma، ارائه کرد. او زمانی که سؤال خود را با تمامی جزئیات (شامل سن و جنسیت بیمار) مطرح کرد، هوش مصنوعی موفق به تشخیص صحیح مشکل شد. اما هنگامی که همان تصویر را با یک پرسش ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») مطرح کرد، جواب به‌طور کامل متفاوت بود: «این تصویر قفسه سینه‌ای نرمال از یک فرد بزرگسال را نشان می‌دهد.» و در نهایت مشکل نادیده گرفته شد.

این مسئله نشان‌دهنده آن است که کوچکترین تغییر در نحوه تعامل با سیستم هوش مصنوعی می‌تواند نتایج کاملاً متفاوت و خطرناک ایجاد کند.

کارشناسان بر این باورند که بزرگ‌ترین تهدید این سیستم‌ها نه فقط اشتباهات رندوم آنها، بلکه اعتمادی است که به لحن متقاعدکننده‌ای که آنها برای بیان اطلاعات نادرست (مانند وجود گانگلیون بازیلر) به کار می‌برند، ایجاد می‌شود.

دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب عمل کرده که شما تصمیم می‌گیرید که پشت فرمان بخوابید. این دقیقاً همان لحظه‌ای است که خطرات واقعی نمایان می‌شود.»

در نهایت، پدیده‌ای به نام «سوگیری اتوماسیون» (Automation Bias) موجب می‌شود که پزشکان به دلیل عملکرد عمدتاً قابل قبول هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و خطاهای جدی را نادیده بگیرند. کارشناسان تاکید دارند که این مدل‌ها به صورت ذاتی تمایل به تولید اطلاعات دارند و هیچ‌گاه نمی‌گویند «نمی‌دانم» و این مسأله می‌تواند در زمینه‌های پر خطر نظیر پزشکی، یک چالش بزرگ به شمار آید.

مقالات مرتبط

دکمه بازگشت به بالا