هوش مصنوعی

OpenAI ظاهراً مدل هوش مصنوعی GPT-4o را با عجله معرفی کرده است


به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایش‌های ایمنی GPT-4o را انجام داده و قبل از اطمینان کامل از ایمنی این مدل آن را معرفی کرده است. به گفته این فرد ناشناس، آن‌ها در اولین آزمایش ایمنی این مدل پیشرفته شکست خورده بودند.

یکی از کارمندان ناشناس OpenAI به واشنگتن پست گفته است: «آن‌ها قبل از آنکه بدانند این مدل [GPT-4o] ایمن است، برنامه رونمایی آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.» او می‌گوید OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرد.

بااین‌حال، سخن‌گوی OpenAI به واشنگتن پست می‌گوید عرضه GPT-4o باعث نشده در توجه به نکات ایمنی کم‌کاری شود. بااین‌حال منبع ناشناس اذعان می‌کند جدول زمانی بررسی ایمنی این مدل در یک هفته فشرده شده بود.

نقض ایمنی هوش مصنوعی در OpenAI

ایمنی یکی از نکات مهم منشور OpenAI است. در این منشور بندی وجود دارد که می‌گوید OpenAI درصورتی که سایر سازمان‌های رقیب به AGI (هوش جامع مصنوعی) دست یافتند، به‌جای ادامه رقابت، به آن‌ها کمک می‌کند ایمنی آن را ارتقا دهند. علاوه‌براین OpenAI ظاهراً مدعی است مدل‌های اختصاصی خود را به دلایل ایمنی به‌صورت متن‌باز درنمی‌آورد.

بااین‌حال چند وقت اخیر نگرانی‌ها پیرامون نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعه‌دهندگان مدل‌های بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل اعلام کرد: «توسعه هوش مصنوعی پیشتاز فعلی خطرات فوری و فزاینده‌ای برای امنیت ملی ایجاد می‌کند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به شیوه‌هایی که یادآور معرفی سلاح‌های هسته‌ای است، بی‌ثبات کند.»

پیش‌ازاین نیز «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI، در زمان استعفا گفته بود طی سال‌های گذشته، فرهنگ و فرایند ایمنی‌سازی هوش مصنوعی در این شرکت جایش را به عرضه محصولات پرزرق‌وبرق داده است. همچنین کارمندان فعلی و سابق OpenAI اخیراً نامه‌ای امضا کرده‌اند که در آن از این شرکت خواسته‌اند اقدامات ایمنی بهتری در پیش بگیرد.

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا