OpenAI از دو مدل نوین هوش مصنوعی برای بهبود ایمنی در فضای مجازی پرده برداشت

امروز، OpenAI از دو مدل استدلالگر تازه پردهبرداری کرده است که توسعهدهندگان میتوانند از آنها بهمنظور شناسایی و دستهبندی انواع تهدیدات آنلاین در پلتفرمهای خود استفاده کنند.
بر اساس گزارش CNBC، این مدلها تحت عناوین gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شدهاند که ابعاد آنها نیز تعیین شده و بهویژه نسخههای بهینهسازی شده مدلهای gpt-oss هستند که در ماه آگوست به بازار عرضه شدند.
معرفی مدلهای جدید OpenAI
این مدلها بهصورت مدلهای وزنی باز (open-weight) ارائه شدهاند، به این معنا که پارامترهای آنها که تأثیر زیادی بر کیفیت خروجی و دقت پیشبینیها دارند، بهطور عمومی قابل دسترسی هستند. این نوع مدلها به کاربران امکان شفافیت و کنترل بیشتری را میدهند و اندکی با مدلهای متنباز که کد منبع آنها برای ویرایش و سفارشیسازی در اختیار عموم قرار دارد، متمایز میشوند.
OpenAI اعلام کرده است که سازمانها قادر خواهند بود این مدلها را بر اساس سیاستها و نیازهای خاص خود تنظیم کنند. با توجه به قابلیت استدلال و توضیح فرآیند تصمیمگیری که این مدلها دارند، توسعهدهندگان میتوانند بهروشنی متوجه شوند که مدل چگونه به یک نتیجه خاص رسیده است. بهعنوان مثال، یک وبسایت نقد و بررسی محصولات میتواند از مدلهای gpt-oss-safeguard برای شناسایی نظرات تقلبی استفاده کند، یا یک انجمن بازیهای ویدیویی قادر خواهد بود پستهای مرتبط با تخلفات و تقلبات را دستهبندی کند.
این مدلها با همکاری دیسکورد، SafetyKit و ROOST توسعه یافتهاند، که دومی بهعنوان یک سازمان فعال در زمینه ایجاد زیرساختهای ایمن برای هوش مصنوعی شناخته میشود. در حال حاضر، مدلها در وضعیت پیشنمایش تحقیقاتی در دسترس قرار دارند و OpenAI به دنبال جمعآوری بازخوردهای پژوهشگران و متخصصان ایمنی است.
معرفی این مدلها به OpenAI میتواند فرصتی باشد تا به منتقدان خود درباره تجاریسازی سریع و پیشرفت بدون توجه به اصول اخلاقی و ایمنی در حوزه هوش مصنوعی پاسخ دهد. ارزش OpenAI در حال حاضر بالغ بر 500 میلیارد دلار برآورد شده است و چتبات ChatGPT بیش از 800 میلیون کاربر فعال هفتهای دارد. روز سهشنبه، OpenAI اعلام کرد که ساختار سازمانی خود را بازبینی کرده است.
کاربران قادر خواهند بود وزن مدلها را از Hugging Face دانلود نمایند. «کامیل فرانسوا»، رئیس ROOST، در بیانیهای اظهار داشت:
«با سرعت فزاینده پیشرفتهای هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز میبایست بهطور همزمان توسعه یابند و باید در دسترس همگان قرار گیرند.»




