اشاره به موجودی که در واقعیت وجود ندارد

براساس اطلاعات جدید، مدل پیشرفته پزشکی گوگل به نام Med-Gemini، در یکی از مقالات تحقیقاتی خود به وجود یک بخش غیرواقعی در مغز انسان اشاره کرده است. علاوه بر این، آزمایشهای اضافی نشان میدهند که این سیستم هوش مصنوعی با ایجاد تغییرات جزئی در نحوه مطرح کردن پرسشها، پاسخهای بهطور کامل متفاوتی ارائه میدهد. این نوع اشتباهات جدی سبب بروز نگرانیهایی درباره بهکارگیری این فناوریهای ناپخته در عرصههای بالینی گردیده است.
در مقالهای که بهمنظور نمایش توانمندیهای مدل هوش مصنوعی Med-Gemini توسط خود گوگل منتشر شده، این مدل موفق به شناسایی یک ناهنجاری در سیتیاسکن سر شده و این ناهنجاری را به «گانگلیون بازیلر» (Basilar Ganglia) نسبت داده است؛ جایی که در واقع وجود خارجی ندارد. این هوش مصنوعی، دو ساختار مغزی کاملاً متفاوت به نامهای «گانگلیونهای پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب کرده و عبارتی جدید را اختراع کرده است.
متخصصان و پژوهشگران این خطا را به عنوان یک تهدید جدی تلقی میکنند. آنها اظهار میکنند: «این دو اصطلاح مختلف، تفاوتهای بسیار زیادی را ایجاد میکنند.» تشخیص نادرست این دو ناحیه ممکن است به صدور پروتکلهای درمانی کاملاً متفاوت و حتی خطرناک برای بیمار منجر گردد.
عضو خیالی مغز که توسط هوش مصنوعی گوگل خلق شد
<pطبق گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصبشناس، این اشتباه بزرگ را به اطلاع گوگل رساند، این شرکت در ابتدا سعی کرد با ویرایش غیرعلنی پست وبلاگ خود و تغییر عبارت «Basilar» به «Basal»، این موضوع را به عنوان یک «اشتباه تایپی» ساده نمایش دهد. اما با توجه به فشارهای بیشتر، گوگل مجدداً عبارت نادرست را بازگردانده و در توضیحی جدید ادعا کرد که این یک «اشتباه متداول در رونویسی» است که هوش مصنوعی از دادههای آموزشی خود یاد گرفته است.
اما مشکلات اینجا به پایان نمیرسد. آزمایشهای انجامشده توسط متخصصان دیگر نواقص اساسی بیشتری را در این مدلهای هوش مصنوعی برملا کرده است: ناپایداری در جوابدهی.
دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی عکسی از رادیوگرافی قفسه سینه را به مدل جدیدتر گوگل، MedGemma، ارائه کرد. او زمانی که سؤال خود را با تمامی جزئیات (شامل سن و جنسیت بیمار) مطرح کرد، هوش مصنوعی موفق به تشخیص صحیح مشکل شد. اما هنگامی که همان تصویر را با یک پرسش سادهتر (صرفاً «در این عکس چه میبینی؟») مطرح کرد، جواب بهطور کامل متفاوت بود: «این تصویر قفسه سینهای نرمال از یک فرد بزرگسال را نشان میدهد.» و در نهایت مشکل نادیده گرفته شد.
این مسئله نشاندهنده آن است که کوچکترین تغییر در نحوه تعامل با سیستم هوش مصنوعی میتواند نتایج کاملاً متفاوت و خطرناک ایجاد کند.
کارشناسان بر این باورند که بزرگترین تهدید این سیستمها نه فقط اشتباهات رندوم آنها، بلکه اعتمادی است که به لحن متقاعدکنندهای که آنها برای بیان اطلاعات نادرست (مانند وجود گانگلیون بازیلر) به کار میبرند، ایجاد میشود.
دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد این پدیده را به رانندگی خودکار تشبیه میکند: «ماشین آنقدر خوب عمل کرده که شما تصمیم میگیرید که پشت فرمان بخوابید. این دقیقاً همان لحظهای است که خطرات واقعی نمایان میشود.»
در نهایت، پدیدهای به نام «سوگیری اتوماسیون» (Automation Bias) موجب میشود که پزشکان به دلیل عملکرد عمدتاً قابل قبول هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و خطاهای جدی را نادیده بگیرند. کارشناسان تاکید دارند که این مدلها به صورت ذاتی تمایل به تولید اطلاعات دارند و هیچگاه نمیگویند «نمیدانم» و این مسأله میتواند در زمینههای پر خطر نظیر پزشکی، یک چالش بزرگ به شمار آید.




