مدیر سابق ایمنی هوش مصنوعی OpenAI به شرکت رقیب پیوست
چند روز قبل «یان لیکه» (Jan Leike) یکی از محققان ارشد ایمنی OpenAI از این شرکت استعفا کرد و اکنون به استارتاپ رقیب یعنی آنتروپیک پیوسته است. پیش از استعفای یان لیکه، OpenAI گروه «Superalignment» را که هدف آن بررسی خطرات هوش مصنوعی بود، منحل کرد. یان لیکه نیز مدیریت این تیم را برعهده داشت.
یان لیکه در پستی در ایکس خبر پیوستن خود به رقیب OpenAI یعنی آنتروپیک را اعلام کرد. عمده علت استعفای او، ظاهراً انحلال گروه Superalignment بوده است. این گروه که در سال 2023 تشکیل شد، به خطرات بلندمدت هوش مصنوعی میپرداخت. چند روز قبل از استعفای یان لیکه، «ایلیا سوتسکیور»، همبنیانگذار OpenAI نیز از این شرکت جدا شد.
بهطور کلی آنتروپیک خود را نقطه مقابل OpenAI قرار داده و بر منافع عمومی و پیشرفت محتاطانه تمرکز کرده است. این شرکت توسط کارکنان سابق OpenAI تأسیس شد؛ این کارکنان معتقد هستند که OpenAI از مأموریت خود برای توسعه هوش مصنوعی ایمنتر و اخلاقیتر دور شده و پس از قرارداد چند میلیارد دلاری با مایکروسافت بیشازحد بر منافع تجاری خود متمرکز شده است.
پیوستن مدیر سابق ایمنی OpenAI به آنتروپیک
لیکه پس از جدایی خود از OpenAI گفت: «کنارهگیری از این شغل یکی از سختترین کارهایی بود که تا به حال انجام دادهام، زیرا ما نیازی مبرم داریم که سیستمهای هوش مصنوعی را که از ما بسیار هوشمندتر هستند، هدایت و کنترل کنیم.»
البته OpenAI روز گذشته اعلام کرد که یک کمیته ایمنی جدیدی را به سرپرستی مدیران ارشد ازجمله «سم آلتمن»، مدیرعامل این شرکت ایجاد کرده است. هدف این کمیته نیز سنجش خطرات ناشی از مدل جدید و فناوریهای آینده این شرکت خواهد بود.
ایمنی هوش مصنوعی از زمانی که ChatGPT در اواخر سال 2022 معرفی شد، اهمیت بسیاری در سراسر بخش فناوری پیدا کرد. برخی کارشناسان نیز در این صنعت ابراز نگرانی کردهاند که شرکتها در عرضه محصولات قدرتمند هوش مصنوعی بدون درنظرگرفتن آسیبهای احتمالی اجتماعی بسیار سریع عمل میکنند.