هوش مصنوعی

مدل‌های کنونی هنوز قادر به استدلال در سطح هوش عمومی مصنوعی نیستند

با وجود پیشرفت‌های جدید، هنوز مسیر طولانی‌ای برای دستیابی به هوش جامع مصنوعی (AGI) وجود دارد؛ تحقیق اخیر اپل نشان می‌دهد که حتی مدل‌های پیشرفته هوش مصنوعی نیز در زمینه استدلال با چالش‌هایی مواجه هستند.

مدل‌های زبانی بزرگ (LLM) مانند ChatGPT از OpenAI و Claude از آنتروپیک اخیراً به نمونه‌های دارای توانایی‌های استدلالی (LRM) ارتقا یافته‌اند، اما پژوهشگران اپل در مقاله‌ای با عنوان «توهم تفکر» که به تازگی منتشر گردیده، اشاره می‌کنند که ظرفیت‌های اساسی، ویژگی‌های مقیاس‌پذیری و محدودیت‌های این مدل‌ها همچنان به‌طور کامل شناخته نشده‌اند.

بر اساس اظهارات این محققان، ارزیابی‌های حال حاضر عمدتاً بر معیارهای ریاضی و کدنویسی متمرکز شده‌اند و دقت پاسخ نهایی را به‌عنوان ملاک درنظر می‌گیرند؛ ولی این نوع سنجش اطلاعات دقیقی از قابلیت‌های استدلالی مدل‌ها ارائه نمی‌دهد. این یافته‌ها به نوعی با نظریه‌ای که معتقد است دستیابی به AGI در چند سال آینده امکان‌پذیر است، در تضاد قرار دارد.

چالش‌های پیش روی مدل‌های زبانی در فرآیند دستیابی به AGI

تحقیقات اپل به‌منظور ارزیابی توانایی استدلال، مجموعه‌ای از معماها را طراحی کرده و مدل‌های مختلفی از جمله Claude Sonnet، نسخه‌های o3-mini و o1 از OpenAI و همچنین مدل‌های DeepSeek-R1 و V3 را فراتر از ارزیابی‌های ریاضیاتی مرسوم مورد آزمایش قرار دادند.

نتایج به‌دست‌آمده از این آزمایش‌ها نشان می‌دهد که مدل‌های پیشرفته در برابر چالش‌های پیچیده به‌طرز محسوسی عملکردشان کاهش می‌یابد، قابلیت تعمیم در استدلال را ندارند و با افزایش درجه پیچیدگی، مزیت آنها کاهش می‌یابد؛ وضعیتی که با انتظارات موجود از AGI همخوانی ندارد.

ادر گزارش اپل آمده است:

«ما متوجه شدیم که مدل‌های استدلالی در محاسبات دقیق با محدودیت‌هایی مواجه هستند؛ این مدل‌ها نمی‌توانند از الگوریتم‌های صریح استفاده کنند و توانایی استدلالی آنها در حل معماها دچار ناهماهنگی است.»

یکی دیگر از یافته‌های این مطالعه آن است که این مدل‌ها دچار نوعی تفکر بیش از حد می‌شوند. بداست که آن‌ها ابتدا پاسخ درستی تولید می‌کنند، اما در ادامه با گسترش تفکر، به سمت استدلال نادرست سوق پیدا می‌کنند و در نهایت پاسخ اشتباهی ارائه می‌دهند. نتیجه نهایی این پژوهش حاکی از آن است که مدل‌های دارای قابلیت استدلال در واقع تنها به تقلید از الگوهای استدلالی می‌پردازند و قادر به درونی‌سازی یا تعمیم آن‌ها نیستند؛ اصلی که برای دستیابی به سطح AGI ضروری است.

در پایان، اپل نوشت:

«این یافته‌ها با تصورات عمومی درباره توانایی‌های مدل‌های استدلالی در تناقض است و نشان می‌دهد که رویکردهای جاری ممکن است به موانع بنیادی در مسیر استدلال تعمیم‌پذیر دچار شده باشند.»

هوش جامع مصنوعی یا AGI به‌عنوان هدف نهایی توسعه هوش مصنوعی مطرح می‌شود؛ وضعیتی که در آن ماشین می‌تواند به‌مانند انسان تفکر کند و به سطحی معادل با هوش انسانی برسد. در ژانویه، «سم آلتمن»، مدیرعامل OpenAI بیان کرده بود که این شرکت اکنون به‌مراتب به ساخت AGI نزدیک‌تر شده و اعلام کرده بود: «ما اکنون از روش‌هایی که به‌کمک آن‌ها می‌توان AGI را بسازیم، اطمینان داریم.»

همچنین، در نوامبر، «داریو آمودی»، مدیرعامل آنتروپیک، پیش‌بینی کرده بود که AGI در آینده نزدیک از توانایی‌های انسانی متمایز خواهد شد و گفت: «با در نظر گرفتن نرخ رشد قابلیت‌های فعلی، دستیابی به AGI تا سال 2026 یا 2027 چندان دور از ذهن نیست.»

مقالات مرتبط

دکمه بازگشت به بالا