هوش مصنوعی

معرفی مدل نوین دیپ‌سیک؛ نصف کردن هزینه‌ها با طراحی تازه

استارتاپ چینی دیپ‌سیک به تازگی از مدلی نوین به نام DeepSeek-V3.2-Exp پرده‌برداری کرده است که به واسطه یک معماری جدید با عنوان «توجه پراکنده» نوید کاهش هزینه‌های تحلیلی هوش مصنوعی برای متون طولانی را تا نیمه می‌دهد. این نوآوری می‌تواند امکان بهره‌گیری از مدل‌های هوش مصنوعی با قدرت بالا را برای شرکت‌های کوچکتر فراهم سازد.

مدل‌های هوش مصنوعی کنونی برای تحلیل یک متن، نیازمند توجه به تمام کلمات و جملات آن هستند. این روند به ویژه در متون بلند، نیازمند منابع محاسباتی و هزینه‌های سروری بسیار بالاست. اما رویکرد جدید DeepSeek تحت عنوان «توجه پراکنده» (DSA) این معادله را دگرگون می‌سازد.

این سیستم به جای پردازش کل اطلاعات، به صورت هوشمندانه و گزینشی عمل می‌کند. تصور کنید که یک شرکت هواپیمایی به دنبال بهترین مسیر باشد؛ لذا به جای آنکه تمام مسیرهای ممکن را در سطح جهانی بررسی کند، تنها گزینه‌های منطقی را فیلتر می‌نماید. «توجه پراکنده» نیز به همین شیوه داده‌ها را تحلیل می‌کند. در گام اول، با یک ماژول هوشمند، مهم‌ترین بخش‌های متن شناسایی شده و سپس صرفاً کلمات یا توکن‌های کلیدی برای تجزیه و تحلیل نهایی می‌شوند. این فرآیند به شکل چشمگیری بار محاسباتی را کاهش می‌دهد و طبق ادعای دیپ‌سیک، قادر است هزینه استفاده از API را در سناریوهای شامل متن طولانی تا ۵۰ درصد تقلیل دهد.

معماری نوین دیپ‌سیک برای کاهش هزینه‌ها

<pبه نقل از CNBC، این پیشرفت خبر خوشی برای کل اکوسیستم فناوری به شمار می‌آید. کاهش قابل توجه هزینه‌ها بدین معناست که توسعه‌دهندگان، محققان و شرکت‌های کوچک‌تر که توانایی تامین هزینه‌های زیاد را ندارند، اکنون می‌توانند از مدل‌های قوی هوش مصنوعی برای ایجاد اپلیکیشن‌های خود بهره‌برداری کنند. این امر می‌تواند منجر به ایجاد موجی جدید از خلاقیت و رقابت در بازار شود.

با وجود تمام مزایای این رویکرد، یک نگرانی عمده نیز وجود دارد: قابلیت اعتماد. سوال اصلی اینجاست که هوش مصنوعی چگونه تشخیص می‌دهد که کدام داده‌ها اهمیت دارند و کدام‌یک بی‌اهمیت هستند؟

«اکاترینا آلماسک» (Ekaterina Almasque)، یکی از سرمایه‌گذاران بارز در حوزه هوش مصنوعی، بیان می‌کند: «واقعیت این است که این مدل‌ها بسیاری از ظرافت‌ها را نادیده می‌گیرند. سوال اساسی این است که آیا آن‌ها مکانیزم مناسبی برای حذف داده‌های غیرمهم دارند؟»

این مسئله از منظر ایمنی و فراگیر بودن هوش مصنوعی می‌تواند مشکلساز باشد. اگر مدلی به‌طور سیستماتیک داده‌های مرتبط با یک گروه خاص یا یک دیدگاه خاص را به عنوان «غیرمهم» شناسایی کند، خروجی آن ممکن است به شدت جانبدارانه، غیرقابل اعتماد و حتی خطرناک باشد.

مقالات مرتبط

دکمه بازگشت به بالا