هوش مصنوعی

OpenAI با هدف افزایش امنیت فرایندهای خود، اقدام به تقویت تدابیر جلوگیری از سرقت فناوری‌هایش می‌نماید

گزارش‌های اخیر نشان می‌دهد که شرکت OpenAI در حال بهبود و تقویت تدابیر امنیتی خود با هدف مقابله با سرقت داده‌ها و اطلاعات مدل‌هایش از سوی رقبایی نظیر DeepSeek است.

بر اساس گزارشی جدید که توسط فایننشال تایمز منتشر شده، OpenAI به‌دنبال انتشار یک مدل رقیب توسط استارتاپ چینی DeepSeek در ژانویه، عملیات امنیتی خود را با شتاب بیشتری بهبود می‌بخشد. OpenAI ادعا می‌کند که دیپ‌سیک به‌روش غیرقانونی و از طریق فرایندی به نام «تقطیر»، اطلاعات مدل‌های آن را کپی‌برداری می‌کند.

OpenAI کپی‌برداری از مدل‌هایش توسط رقبا را سخت‌تر می‌کند

برخی از اقداماتی که OpenAI در حوزه امنیت به اجرا گذاشته، شامل سیاست‌های محدودکننده‌ جهت کنترل دسترسی به اطلاعات است که دسترسی کارکنان به الگوریتم‌ها و محصولات حساس را تحت نظر قرار می‌دهد. طبق اعلام فایننشال تایمز، در زمان توسعه مدل o1، تنها اعضای تاییدشده تیم که از جزئیات پروژه مطلع بودند، مجاز به بحث درباره آن در فضاهای مشترک اداری بودند.

علاوه بر این، OpenAI اکنون فناوری‌های اختصاصی خود را در سیستم‌های آفلاین نگهداری می‌کند. این شرکت همچنین برای کنترل دسترسی به دفاتر خود از احراز هویت بیومتریک (شامل اسکن اثر انگشت کارکنان) بهره می‌برد و به‌صورت پیش‌فرض سیاست‌ عدم دسترسی به اینترنت را پیاده‌سازی کرده است. به این ترتیب، هرگونه ارتباط خارجی نیاز به تأیید بالاترین مقامات دارد.

فایننشال تایمز به این نکته اشاره می‌کند که OpenAI حتی تدابیر امنیت فیزیکی را در مراکز داده خود تقویت کرده و تعداد کارکنان بخش امنیت سایبری را افزایش داده است.

گفته می‌شود که این تغییرات بخشی از تلاش‌های OpenAI برای محافظت از اطلاعات و مدل‌هایش در برابر سرقت‌های احتمالی از سوی رقباست. با این حال، با توجه به رقابت جذب نیروی انسانی میان متا و OpenAI، به‌نظر می‌رسد که این شرکت هوش مصنوعی به دنبال حل مسایل امنیت داخلی خود نیز می‌باشد.

OpenAI در طول زمان بارها شرکت چینی دیپ‌سیک را به سرقت اطلاعات مدل‌های خود متهم کرده است. البته یک ارزیابی نشان داده که نتایج ارائه‌شده توسط چت‌بات دیپ‌سیک شباهت‌های زیادی با پاسخ‌های تولیدشده توسط رقبای غربی این چت‌بات چینی دارند.

مقالات مرتبط

دکمه بازگشت به بالا