دیپسیک برای منتقدان دولت چین کدهای غیرامن تولید میکند

بر اساس یک مطالعه جدید، چتبات هوش مصنوعی دیپسیک به تولید کدهای ناامن و دارای نقصهای امنیتی برای گروهها و مناطق حساس سیاسی تحت نظر دولت چین پرداخته است.
طبق گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمونی را به منظور بررسی واکنشهای دیپسیک به درخواستهای کدنویسی طراحی کرده است. پژوهشگران درخواستهای یکسانی برای ایجاد برنامههای مختلف به این چتبات ارسال کردهاند، اما در هر درخواست، کاربر نهایی را به عنوان گروه یا منطقهای متفاوت معرفی کردهاند؛ از ایالات متحده و تبت تا گروههایی چون داعش و جنبش مذهبی فالونگونگ که در چین ممنوع است. به گفته محققان، این چتبات برخی از درخواستها را رد کرده و در مواردی هم کدهایی با کیفیت پایین و آسیبپذیریهای امنیتی جدی ارائه داده است.
تولید کدهای ناامن دیپسیک برای گروههای مخالف دولت چین
این تحقیق نشان میدهد که کیفیت کدهایی که دیپسیک تولید میکند به شدت تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. به عنوان مثال، در یک درخواست به منظور نوشتن برنامه برای سیستمهای کنترل صنعتی، ۲۲.۸ درصد از پاسخها دارای نقصهای امنیتی بودند. با این حال، هنگامی که ذکر شد کاربر نهایی متعلق به گروه داعش است، این رقم به ۴۲.۱ درصد افزایش یافت.
علاوه بر این، درخواستهایی که برای کاربران تبت، تایوان و فالونگونگ ارسال شد، احتمال بیشتری داشت که منجر به تولید کدهای بیکیفیت شوند. این موتور به طور کلی ۶۱ و ۴۵ درصد از درخواستهای مرتبط با داعش و فالونگونگ را بهطور کامل رد میکرد.
همچنین، پیشتر مشخص شده بود که مدلهای هوش مصنوعی چینی در پاسخ به سؤالات متنی، اطلاعاتی متناسب با روایتهای دولت چین را ارائه میدهند. اما این نخستین بار است که شواهدی در خصوص تولید کدهای ناامن به دلیل مسائل سیاسی بدست آمده است. تولید عمدی کدهای معیوب میتواند به راحتی اهداف مورد نظر را در معرض هک قرار دهد.
چرا دیپسیک کدهای چنین تولید میکند؟
کارشناسان سه توضیح ممکن برای این پدیده ارائه میدهند. توضیح اول و نگرانکنندهتر، وجود دستورالعملهای دولتی برای خرابکاری عمدی در پروژههای گروههای هدف است. دومین احتمال، وجود سوگیری در دادههای آموزشی است؛ به طوری که کدهای یافت شده در اینترنت مربوط به مناطق خاصی مانند تبت ممکن است به طور کلی کیفیت پایینتری داشته باشند و هوش مصنوعی الگوهای آنها را بازتولید کند. احتمال سوم این است که هوش مصنوعی به صورت خودکار و بر اساس یادگیری خود، مفاهیمی چون «شورشی» را با کیفیت پایین مرتبط دانسته و به همین دلیل کد ناامن تولید میکند.




