هوش مصنوعی

پیکار قانونی گوگل؛ سازمان‌ها نباید به خاطر خطاهای هوش مصنوعی پاسخگو شوند

گوگل با شکایت «رابی استارباک»، یک فعال مدافع تنوع و مخالف قدرت‌های بزرگ، مواجه شده است. او ادعا می‌کند که هوش مصنوعی گوگل به نادرستی او را به اتهامات جنسی و افراط‌گرایی مرتبط ساخته است. در حالی که شرکت متا تصمیم به حل و فصل پرونده مشابهی در خارج از دادگاه گرفته، گوگل کرده است که این موضوع را در چارچوب دادگاه پیگیری کند.

گزارش‌ها نشان می‌دهند که این شرکت در مدارک قانونی خود مطرح کرده که از نظر آن، نباید به خاطر محتوایی که توسط مدل‌های هوش مصنوعی تولید شده و ممکن است دچار خطا شوند، مسئول دانسته شود و در تلاش است که شکایت را رد کند. منشأ این دعوا به شکایتی برمی‌گردد که رابی استارباک علیه گوگل مطرح کرده و در آن گفته که هوش مصنوعی این شرکت او را به اتهام‌های جنسی و گرایش‌های افراطی متهم کرده است.

شکایت از گوگل به خاطر اظهارات هوش مصنوعی

استارباک پیشتر اقدام به طرح شکایت مشابهی از متا کرد و بیان داشت که هوش مصنوعی متا به اشتباه او را به عنوان فردی معرفی کرده که در ناآرامی‌های کنگره آمریکا در ششم ژانویه حاضر بوده است. با این حال، متا رویکردی کاملاً متفاوت در پیش گرفت و در آگوست، پرونده را به‌صورت توافقی به پایان رساند و حتی او را به عنوان مشاور در مدیریت سوگیری‌های سیاسی و ایدئولوژیک در سیستم‌های هوش مصنوعی خود به کار گرفت.

براساس گزارشی از وال استریت ژورنال، هیچ دادگاهی در ایالات متحده تا کنون تصمیمی مبنی بر پرداخت غرامت به خاطر اظهارات یک چت‌بات هوش مصنوعی صادر نکرده و این پرونده می‌تواند نخستین نمونه در تعیین حدود مسئولیت حقوقی شرکت‌ها در مقابل محتوای تولید شده توسط هوش مصنوعی باشد.

استارباک در شکایت جدید خود درخواست ۱۵ میلیون دلار خسارت از گوگل کرده است. اما گوگل در پاسخ به این ادعا، اعلام کرده که ادعای استارباک به نوعی نشان‌دهنده سوءاستفاده او از ابزارهای توسعه‌دهنده و تحریک چت‌بات به تولید اظهارات غیرمنطقی است. علاوه بر این، گوگل تأکید کرده است که استارباک هیچ توضیحی درباره دستورات وارد شده خود ارائه نکرده و مشخص نیست که آیا کسی واقعاً تحت تأثیر این اظهارات قرار گرفته است یا خیر. همچنین در این مرحله، استارباک به هیچ یک از درخواست‌ها برای ارائه توضیحات بیشتر واکنش نشان نداده است.

اگرچه گوگل می‌توانست به آسانی با یک توافق خارج از دادگاه این پرونده را ببندد، اما استراتژی متفاوتی را در پیش گرفته و مایل است که همه چیز در یک محیط رسمی و زیر نظر قاضی بررسی شود. این تصمیم می‌تواند نقطه عطفی در تعیین مرزهای مسؤولیت شرکت‌ها در قبال رفتار و نتایج هوش مصنوعی باشد و شاید استاندارد جدیدی به وجود آورد که بر اساس آن معلوم شود مدل‌های هوشمند به چه میزان تحت نظارت و پاسخگویی باید قرار گیرند.

این پرونده برای گوگل تنها یک دعوای حقوقی عادی نیست، بلکه نمونه‌ای از تعامل بی‌واسطه قانون با فناوری‌های نوآورانه است، جایی که موضوعاتی چون حریم خصوصی، پیامدهای اجتماعی الگوریتم‌ها و نواقص قوانین موجود به‌طور همزمان به چالش کشیده می‌شوند. نتیجه نهایی این فرایند ممکن است مسیر آینده قانون‌گذاری در حیطه هوش مصنوعی در ایالات متحده را بازسازی کند و چارچوب جدیدی برای رسیدگی به ادعاهای نسبت داده شده به سیستم‌های هوش مصنوعی به‌وجود آورد.

مقالات مرتبط

دکمه بازگشت به بالا