پیکار قانونی گوگل؛ سازمانها نباید به خاطر خطاهای هوش مصنوعی پاسخگو شوند

گوگل با شکایت «رابی استارباک»، یک فعال مدافع تنوع و مخالف قدرتهای بزرگ، مواجه شده است. او ادعا میکند که هوش مصنوعی گوگل به نادرستی او را به اتهامات جنسی و افراطگرایی مرتبط ساخته است. در حالی که شرکت متا تصمیم به حل و فصل پرونده مشابهی در خارج از دادگاه گرفته، گوگل کرده است که این موضوع را در چارچوب دادگاه پیگیری کند.
گزارشها نشان میدهند که این شرکت در مدارک قانونی خود مطرح کرده که از نظر آن، نباید به خاطر محتوایی که توسط مدلهای هوش مصنوعی تولید شده و ممکن است دچار خطا شوند، مسئول دانسته شود و در تلاش است که شکایت را رد کند. منشأ این دعوا به شکایتی برمیگردد که رابی استارباک علیه گوگل مطرح کرده و در آن گفته که هوش مصنوعی این شرکت او را به اتهامهای جنسی و گرایشهای افراطی متهم کرده است.
شکایت از گوگل به خاطر اظهارات هوش مصنوعی
استارباک پیشتر اقدام به طرح شکایت مشابهی از متا کرد و بیان داشت که هوش مصنوعی متا به اشتباه او را به عنوان فردی معرفی کرده که در ناآرامیهای کنگره آمریکا در ششم ژانویه حاضر بوده است. با این حال، متا رویکردی کاملاً متفاوت در پیش گرفت و در آگوست، پرونده را بهصورت توافقی به پایان رساند و حتی او را به عنوان مشاور در مدیریت سوگیریهای سیاسی و ایدئولوژیک در سیستمهای هوش مصنوعی خود به کار گرفت.
براساس گزارشی از وال استریت ژورنال، هیچ دادگاهی در ایالات متحده تا کنون تصمیمی مبنی بر پرداخت غرامت به خاطر اظهارات یک چتبات هوش مصنوعی صادر نکرده و این پرونده میتواند نخستین نمونه در تعیین حدود مسئولیت حقوقی شرکتها در مقابل محتوای تولید شده توسط هوش مصنوعی باشد.
استارباک در شکایت جدید خود درخواست ۱۵ میلیون دلار خسارت از گوگل کرده است. اما گوگل در پاسخ به این ادعا، اعلام کرده که ادعای استارباک به نوعی نشاندهنده سوءاستفاده او از ابزارهای توسعهدهنده و تحریک چتبات به تولید اظهارات غیرمنطقی است. علاوه بر این، گوگل تأکید کرده است که استارباک هیچ توضیحی درباره دستورات وارد شده خود ارائه نکرده و مشخص نیست که آیا کسی واقعاً تحت تأثیر این اظهارات قرار گرفته است یا خیر. همچنین در این مرحله، استارباک به هیچ یک از درخواستها برای ارائه توضیحات بیشتر واکنش نشان نداده است.
اگرچه گوگل میتوانست به آسانی با یک توافق خارج از دادگاه این پرونده را ببندد، اما استراتژی متفاوتی را در پیش گرفته و مایل است که همه چیز در یک محیط رسمی و زیر نظر قاضی بررسی شود. این تصمیم میتواند نقطه عطفی در تعیین مرزهای مسؤولیت شرکتها در قبال رفتار و نتایج هوش مصنوعی باشد و شاید استاندارد جدیدی به وجود آورد که بر اساس آن معلوم شود مدلهای هوشمند به چه میزان تحت نظارت و پاسخگویی باید قرار گیرند.
این پرونده برای گوگل تنها یک دعوای حقوقی عادی نیست، بلکه نمونهای از تعامل بیواسطه قانون با فناوریهای نوآورانه است، جایی که موضوعاتی چون حریم خصوصی، پیامدهای اجتماعی الگوریتمها و نواقص قوانین موجود بهطور همزمان به چالش کشیده میشوند. نتیجه نهایی این فرایند ممکن است مسیر آینده قانونگذاری در حیطه هوش مصنوعی در ایالات متحده را بازسازی کند و چارچوب جدیدی برای رسیدگی به ادعاهای نسبت داده شده به سیستمهای هوش مصنوعی بهوجود آورد.




