هوش مصنوعی

مدل‌های هوش مصنوعی موظف به افشای داده‌های آموزشی خود در قاره اروپا هستند

اتحادیه اروپا با ارائه دستورالعمل‌های نوین در زمینه هوش مصنوعی، از فعالان این عرصه خواسته است که به‌طور روشن داده‌های آموزشی مربوط به مدل‌های خود را افشا کنند و از نقض حقوق کپی‌رایت از طرف خود پرهیز نمایند.

براساس گزارش‌ها، این اقدام بخشی از تلاش‌های گسترده اتحادیه است تا اولین چارچوب قانونی جامع تنظیم هوش مصنوعی در سطح جهانی را که در سال گذشته معرفی شده، به مرحله اجرا درآورد. هرچند که این قوانین هنوز به‌صورت کامل اجرا نشده‌اند، به‌تازگی دستورالعمل‌هایی برای تسهیل انطباق آنها با غول‌های فناوری همچون OpenAI، مایکروسافت و گوگل ارائه گردیده است.

دستورالعمل نوین هوش مصنوعی در اتحادیه اروپا

این دستورالعمل جدید از جمله هدفش، یاری رساندن به مدل‌های زبانی بزرگ (LLM) در تطابق با قوانین جدید مصوب است. این قوانین از دوم آگوست (11 مرداد) شروع به اجرایی شدن خواهند کرد؛ با این حال، مدل‌های جدید یک سال و مدل‌های فعلی دو سال فرصت دارند تا خود را با این الزامات هماهنگ سازند. این دستورالعمل‌ها به‌طور کلی به سه بخش کلیدی شامل شفافیت، حق کپی‌رایت و ایمنی تقسیم‌بندی شده‌اند.

در حوزه شفافیت، شرکت‌ها ملزم به ارائه اطلاعات دقیق در خصوص شیوه آموزش مدل‌ها، میزان مصرف انرژی، ظرفیت پردازش و منابع داده‌های آموزشی هستند که این موضوع می‌تواند با مقاومت‌هایی از سوی شرکت‌ها مواجه گردد.

بخش حق نشر بر این نکته تأکید دارد که مدل‌های زبانی باید به قوانین کپی‌رایت، از جمله پی‌وال‌ها (Paywalls) و محدودیت‌های خزیدن بر وب‌سایت‌ها احترام بگذارند. این موضوع به بروز مناقشاتی منجر شده است؛ به‌عنوان مثال، ناشران اینترنتی اروپا به دلیل ویژگی خلاصه‌سازی هوش مصنوعی گوگل اقدام به ثبت شکایت کرده‌اند. همچنین دانمارک قانونی را پیشنهاد کرده که به افراد حق نشر بر تصویر خود را اعطا می‌کند تا از تولید دیپ‌فیک‌های غیرمجاز جلوگیری شود.

شرکت‌های فعال در حوزه هوش مصنوعی پذیرفته‌اند که فناوری‌هایشان ممکن است با قوانین کپی‌رایت فعلی تناقض داشته باشد و برخی مدیران هشدار داده‌اند که الزام به کسب اجازه از تمامی دارندگان حق نشر می‌تواند به‌طور ناگهانی فعالیت‌های مربوط به هوش مصنوعی را مختل کند.

در زمینه ایمنی، دستورالعمل هوش مصنوعی به تهدیدات احتمالی اشاره می‌کند که شامل نقض امنیت شخصی، نظارت گسترده، توسعه سلاح‌های کشتار جمعی، سیستم‌های کلاهبرداری و انتشار اطلاعات نادرست است. به گزارش بلومبرگ، تخلفات از قوانین هوش مصنوعی اتحادیه اروپا می‌تواند منجر به جریمه‌هایی به میزان 7 درصد از درآمد سالانه شرکت‌ها شود که ممکن است اثرات بازدارنده قابل توجهی به همراه داشته باشد.

مقالات مرتبط

دکمه بازگشت به بالا