هوش مصنوعی

OpenAI دسترسی به API مدل های آینده خود را نیازمند احراز هویت می کند

اطلاعات منتشرشده در صفحه پشتیبانی OpenAI نشان می دهد این شرکت ممکن است به زودی از سازمان ها بخواهد برای دسترسی به برخی مدل های خاص هوش مصنوعی، فرایند تأیید هویت را پشت سر بگذارند.

براساس اطلاعات این صفحه، فرایند تأیید هویت Verified Organization نام دارد و OpenAI آن را روشی جدید برای توسعه دهندگان به منظور بازکردن قفل دسترسی به پیشرفته ترین مدل ها و قابلیت های پلتفرم این شرکت توصیف کرده است. این فرایند راستی آزمایی شامل ارائه کارت شناسایی معتبر یکی از کشورهایی است که API شرکت OpenAI از آنها پشتیبانی می کند.

اقدام OpenAI برای کاهش استفاده مخرب از مدل های هوش مصنوعی است

به گفته OpenAI، کارت شناسایی می تواند فقط یک سازمان را در بازه زمانی ۹۰ روزه تأیید کند و البته همه سازمان ها واجد شرایط شرکت در این فرایند نخواهند بود.

OpenAI در صفحه پشتیبانی خود گفته تعداد اندکی از توسعه دهندگان از APIهای این شرکت برای نقض قوانین استفاده می کند و درنظرگرفتن فرایند تأیید هویت برای جلوگیری از چنین اقداماتی لازم است. این شرکت در ادامه گفته است: «برای کاهش استفاده ناامن از هوش مصنوعی و درعین حال فراهم کردن دسترسی به مدل های پیشرفته برای جامعه گسترده تری از توسعه دهندگان، مشغول افزودن فرایند تأیید هویت هستیم.»

مدل های هوش مصنوعی OpenAI با به روزرسانی های اخیر بسیار پیچیده تر و باهوش تر شده اند و استفاده از روش تأیید هویت می تواند احتمال سوءاستفاده از این مدل ها را کاهش دهد. این شرکت پیش ازاین گفته بود تلاش هایی افراد مستقر در کره شمالی برای استفاده مخرب از مدل های خود را شناسایی کرده است.

این تصمیم ممکن است برای جلوگیری از سرقت مالکیت معنوی نیز اتخاذ شده باشد. پیش ازاین گزارش شده بود گروهی مرتبط با استارتاپ هوش مصنوعی چینی دیپ سیک حجم زیادی از داده های OpenAI را سرقت کرده است. این داده ها ظاهراً برای آموزش مدل های دیپ سیک استفاده شده است. OpenAI تابستان گذشته دسترسی به سرورهایش را در چین مسدود کرده بود.

مقالات مرتبط

دکمه بازگشت به بالا