معرفی مدل نوین دیپسیک؛ نصف کردن هزینهها با طراحی تازه

استارتاپ چینی دیپسیک به تازگی از مدلی نوین به نام DeepSeek-V3.2-Exp پردهبرداری کرده است که به واسطه یک معماری جدید با عنوان «توجه پراکنده» نوید کاهش هزینههای تحلیلی هوش مصنوعی برای متون طولانی را تا نیمه میدهد. این نوآوری میتواند امکان بهرهگیری از مدلهای هوش مصنوعی با قدرت بالا را برای شرکتهای کوچکتر فراهم سازد.
مدلهای هوش مصنوعی کنونی برای تحلیل یک متن، نیازمند توجه به تمام کلمات و جملات آن هستند. این روند به ویژه در متون بلند، نیازمند منابع محاسباتی و هزینههای سروری بسیار بالاست. اما رویکرد جدید DeepSeek تحت عنوان «توجه پراکنده» (DSA) این معادله را دگرگون میسازد.
این سیستم به جای پردازش کل اطلاعات، به صورت هوشمندانه و گزینشی عمل میکند. تصور کنید که یک شرکت هواپیمایی به دنبال بهترین مسیر باشد؛ لذا به جای آنکه تمام مسیرهای ممکن را در سطح جهانی بررسی کند، تنها گزینههای منطقی را فیلتر مینماید. «توجه پراکنده» نیز به همین شیوه دادهها را تحلیل میکند. در گام اول، با یک ماژول هوشمند، مهمترین بخشهای متن شناسایی شده و سپس صرفاً کلمات یا توکنهای کلیدی برای تجزیه و تحلیل نهایی میشوند. این فرآیند به شکل چشمگیری بار محاسباتی را کاهش میدهد و طبق ادعای دیپسیک، قادر است هزینه استفاده از API را در سناریوهای شامل متن طولانی تا ۵۰ درصد تقلیل دهد.
معماری نوین دیپسیک برای کاهش هزینهها
<pبه نقل از CNBC، این پیشرفت خبر خوشی برای کل اکوسیستم فناوری به شمار میآید. کاهش قابل توجه هزینهها بدین معناست که توسعهدهندگان، محققان و شرکتهای کوچکتر که توانایی تامین هزینههای زیاد را ندارند، اکنون میتوانند از مدلهای قوی هوش مصنوعی برای ایجاد اپلیکیشنهای خود بهرهبرداری کنند. این امر میتواند منجر به ایجاد موجی جدید از خلاقیت و رقابت در بازار شود.
با وجود تمام مزایای این رویکرد، یک نگرانی عمده نیز وجود دارد: قابلیت اعتماد. سوال اصلی اینجاست که هوش مصنوعی چگونه تشخیص میدهد که کدام دادهها اهمیت دارند و کدامیک بیاهمیت هستند؟
«اکاترینا آلماسک» (Ekaterina Almasque)، یکی از سرمایهگذاران بارز در حوزه هوش مصنوعی، بیان میکند: «واقعیت این است که این مدلها بسیاری از ظرافتها را نادیده میگیرند. سوال اساسی این است که آیا آنها مکانیزم مناسبی برای حذف دادههای غیرمهم دارند؟»
این مسئله از منظر ایمنی و فراگیر بودن هوش مصنوعی میتواند مشکلساز باشد. اگر مدلی بهطور سیستماتیک دادههای مرتبط با یک گروه خاص یا یک دیدگاه خاص را به عنوان «غیرمهم» شناسایی کند، خروجی آن ممکن است به شدت جانبدارانه، غیرقابل اعتماد و حتی خطرناک باشد.




