شرکتهای هوش مصنوعی موظفاند تأثیر چتباتها بر روی کودکان را به FTC گزارش دهند

کمیسیون تجارت فدرال (FTC) از هفت شرکت که در زمینه چتباتهای هوش مصنوعی فعالیت میکنند، خواسته است تا اطلاعاتی درباره تأثیرات این چتباتها بر روی کودکان و کاربران زیر سن قانونی به این نهاد ارائه دهند.
بر اساس گزارش ورج، شرکتهای متا و اینستاگرام، OpenAI، اسنپ، xAI، آلفابت و نیز توسعهدهنده Character.AI موظف شدهاند تا گزارشی درباره شیوههای درآمدزایی از دستیاران هوش مصنوعی خود، برنامههای معطوف به حفظ کاربر و همچنین اقداماتی که جهت کاهش خطرات احتمالی برای این کاربران انجام میدهند، به کمیسیون تجارت فدرال ارسال کنند.
شرکتهای هوش مصنوعی باید درباره تأثیرات چتباتها روی کودکان شفافسازی کنند
این درخواست FTC از شرکتهای فعال در حوزه هوش مصنوعی بخشی از پژوهشی است که به منظورتوسعه درک بهتر و ارزیابی ایمنی چتباتهای هوش مصنوعی انجام میشود و بهعنوان یک اقدام تنبیهی تلقی نمیشود. این شرکتها ملزم به ارائه پاسخ به این درخواست در مدت ۴۵ روز هستند.
مارک میدور، کمیسر FTC، در بیانیهای تصریح کرد: «با وجود توانمندیهای حیرتانگیز این چتباتها در شبیهسازی تفکر انسانی، آنها مشابه دیگر محصولات موجود در بازار هستند و افرادی که این ابزارها را در دسترس عموم قرار میدهند، مسئولیت دارند که از قوانین حمایت از مصرفکننده پیروی کنند.»
اندرو فرگوسن، رئیس کمیسیون نیز در اظهاراتش بر اهمیت بررسی تأثیرات بالقوه چتباتها بر کودکان تأکید کرد. او همچنین خاطرنشان کرد که باید اطمینان حاصل شود که ایالات متحده میتواند به عنوان پیشتاز جهانی در این صنعت نوین و جذاب باقی بماند.
نگرانی درباره خطرات چتباتهای هوش مصنوعی به ویژه به دلیل شباهت نحوه تعامل آنها با انسانها برای بسیاری از والدین و سیاستگذاران به موضوعی حساس تبدیل شده است. اثر این چتباتها بر کودکانی که با آنها تعامل دارند، به دنبال حوادثی چون خودکشی کاربرانی نوجوان در OpenAI دوباره به کانون توجه بازگشته است.
ماه گذشته، نیویورکتایمز گزارشی را منتشر کرد مبنی بر اینکه یک نوجوان ۱۶ساله در کالیفرنیا با ChatGPT درباره قصد خود برای خودکشی گفتگو کرده و این چتبات پیشنهاداتی ارائه داد که بهطور ظاهری به او در انجام این عمل یاری رسانده است. سال گذشته نیز یک نوجوان ۱۴ساله در فلوریدا پس از انجام مکالمه با یک همراه مجازی در پلتفرم Character.AI به خودکشی دست زده بود.




