OpenAI با هدف افزایش امنیت فرایندهای خود، اقدام به تقویت تدابیر جلوگیری از سرقت فناوریهایش مینماید

گزارشهای اخیر نشان میدهد که شرکت OpenAI در حال بهبود و تقویت تدابیر امنیتی خود با هدف مقابله با سرقت دادهها و اطلاعات مدلهایش از سوی رقبایی نظیر DeepSeek است.
بر اساس گزارشی جدید که توسط فایننشال تایمز منتشر شده، OpenAI بهدنبال انتشار یک مدل رقیب توسط استارتاپ چینی DeepSeek در ژانویه، عملیات امنیتی خود را با شتاب بیشتری بهبود میبخشد. OpenAI ادعا میکند که دیپسیک بهروش غیرقانونی و از طریق فرایندی به نام «تقطیر»، اطلاعات مدلهای آن را کپیبرداری میکند.
OpenAI کپیبرداری از مدلهایش توسط رقبا را سختتر میکند
برخی از اقداماتی که OpenAI در حوزه امنیت به اجرا گذاشته، شامل سیاستهای محدودکننده جهت کنترل دسترسی به اطلاعات است که دسترسی کارکنان به الگوریتمها و محصولات حساس را تحت نظر قرار میدهد. طبق اعلام فایننشال تایمز، در زمان توسعه مدل o1، تنها اعضای تاییدشده تیم که از جزئیات پروژه مطلع بودند، مجاز به بحث درباره آن در فضاهای مشترک اداری بودند.
علاوه بر این، OpenAI اکنون فناوریهای اختصاصی خود را در سیستمهای آفلاین نگهداری میکند. این شرکت همچنین برای کنترل دسترسی به دفاتر خود از احراز هویت بیومتریک (شامل اسکن اثر انگشت کارکنان) بهره میبرد و بهصورت پیشفرض سیاست عدم دسترسی به اینترنت را پیادهسازی کرده است. به این ترتیب، هرگونه ارتباط خارجی نیاز به تأیید بالاترین مقامات دارد.
فایننشال تایمز به این نکته اشاره میکند که OpenAI حتی تدابیر امنیت فیزیکی را در مراکز داده خود تقویت کرده و تعداد کارکنان بخش امنیت سایبری را افزایش داده است.
گفته میشود که این تغییرات بخشی از تلاشهای OpenAI برای محافظت از اطلاعات و مدلهایش در برابر سرقتهای احتمالی از سوی رقباست. با این حال، با توجه به رقابت جذب نیروی انسانی میان متا و OpenAI، بهنظر میرسد که این شرکت هوش مصنوعی به دنبال حل مسایل امنیت داخلی خود نیز میباشد.
OpenAI در طول زمان بارها شرکت چینی دیپسیک را به سرقت اطلاعات مدلهای خود متهم کرده است. البته یک ارزیابی نشان داده که نتایج ارائهشده توسط چتبات دیپسیک شباهتهای زیادی با پاسخهای تولیدشده توسط رقبای غربی این چتبات چینی دارند.




