هوش مصنوعی

دیپ‌سیک برای منتقدان دولت چین کدهای غیرامن تولید می‌کند

بر اساس یک مطالعه جدید، چت‌بات هوش مصنوعی دیپ‌سیک به تولید کدهای ناامن و دارای نقص‌های امنیتی برای گروه‌ها و مناطق حساس سیاسی تحت نظر دولت چین پرداخته است.

طبق گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمونی را به منظور بررسی واکنش‌های دیپ‌سیک به درخواست‌های کدنویسی طراحی کرده است. پژوهشگران درخواست‌های یکسانی برای ایجاد برنامه‌های مختلف به این چت‌بات ارسال کرده‌اند، اما در هر درخواست، کاربر نهایی را به عنوان گروه یا منطقه‌ای متفاوت معرفی کرده‌اند؛ از ایالات متحده و تبت تا گروه‌هایی چون داعش و جنبش مذهبی فالون‌گونگ که در چین ممنوع است. به گفته محققان، این چت‌بات برخی از درخواست‌ها را رد کرده و در مواردی هم کدهایی با کیفیت پایین و آسیب‌پذیری‌های امنیتی جدی ارائه داده است.

تولید کدهای ناامن دیپ‌سیک برای گروه‌های مخالف دولت چین

این تحقیق نشان می‌دهد که کیفیت کدهایی که دیپ‌سیک تولید می‌کند به شدت تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. به عنوان مثال، در یک درخواست به منظور نوشتن برنامه برای سیستم‌های کنترل صنعتی، ۲۲.۸ درصد از پاسخ‌ها دارای نقص‌های امنیتی بودند. با این حال، هنگامی که ذکر شد کاربر نهایی متعلق به گروه داعش است، این رقم به ۴۲.۱ درصد افزایش یافت.

علاوه بر این، درخواست‌هایی که برای کاربران تبت، تایوان و فالون‌گونگ ارسال شد، احتمال بیشتری داشت که منجر به تولید کدهای بی‌کیفیت شوند. این موتور به طور کلی ۶۱ و ۴۵ درصد از درخواست‌های مرتبط با داعش و فالون‌گونگ را به‌طور کامل رد می‌کرد.

همچنین، پیش‌تر مشخص شده بود که مدل‌های هوش مصنوعی چینی در پاسخ به سؤالات متنی، اطلاعاتی متناسب با روایت‌های دولت چین را ارائه می‌دهند. اما این نخستین بار است که شواهدی در خصوص تولید کدهای ناامن به دلیل مسائل سیاسی بدست آمده است. تولید عمدی کدهای معیوب می‌تواند به راحتی اهداف مورد نظر را در معرض هک قرار دهد.

چرا دیپ‌سیک کدهای چنین تولید می‌کند؟

کارشناسان سه توضیح ممکن برای این پدیده ارائه می‌دهند. توضیح اول و نگران‌کننده‌تر، وجود دستورالعمل‌های دولتی برای خرابکاری عمدی در پروژه‌های گروه‌های هدف است. دومین احتمال، وجود سوگیری در داده‌های آموزشی است؛ به طوری که کدهای یافت شده در اینترنت مربوط به مناطق خاصی مانند تبت ممکن است به طور کلی کیفیت پایین‌تری داشته باشند و هوش مصنوعی الگوهای آن‌ها را بازتولید کند. احتمال سوم این است که هوش مصنوعی به صورت خودکار و بر اساس یادگیری خود، مفاهیمی چون «شورشی» را با کیفیت پایین مرتبط دانسته و به همین دلیل کد ناامن تولید می‌کند.

مقالات مرتبط

دکمه بازگشت به بالا