هوش مصنوعی

سازندگان هوش مصنوعی باید از خطرات آن جلوگیری کنند

هوش مصنوعی پیشرفت‌های سریعی داشته و در سال‌های اخیر به محبوبیت زیادی رسیده است. حالا مدیرعامل پیشین گوگل، «اریک اشمیت»، در مصاحبه‌ای از پتانسیل‌های این فناوری حرف زده و درعین‌حال به نگرانی‌های پیرامون آن اشاره کرده است.

اریک اشمیت در گفت‌وگو با برنامه This Week شبکه ABC اعلام کرده که استفاده از هوش مصنوعی مزایای زیادی دارد، بااین‌حال دنیای فناوری باید مطمئن شود که این سیستم‌ها آسیب‌رسان نیستند و فقط به کمک مردم می‌آیند.

اشمیت می‌گوید: «جهانی را تصور کنید که پزشکان هوش مصنوعی می‌توانند سلامت همه مردم را ارتقا دهند؛ جهانی را تصور کنید که معلمان هوش مصنوعی توانمندی‌های تحصیلی همه افراد در زبان‌های مختلف را بهبود می‌دهند. این سناریوها بسیار جذاب‌ هستند و این فناوری‌ها که عموماً به‌عنوان مدل‌های زبانی بزرگ شناخته می‌شوند، به‌وضوح قرار است چنین کارهایی انجام دهند.»

چالش‌های هوش مصنوعی پیش روی ماست

با وجود این مزیت‌ها، مدیرعامل پیشین گوگل می‌گوید: «درعین‌حال با چالش‌های خارق‌العاده جدیدی از سوی این ابزارها روبه‌رو می‌شویم؛ خواه دیپ‌فیکی باشد که قبلاً درباره‌اش بحث کرده‌ایم، یا فردی که عاشق معلم هوش مصنوعی خود می‌شود؟»

اشمیت همچنین نگران شیوه استفاده از AI در حوزه بیولوژی یا حملات سایبری است. او اعتقاد دارد که این فناوری می‌تواند نحوه عملکرد نهادهای قدرت و دموکراسی را هم دستخوش تغییر و تحول قرار دهد.

رئیس هیئت‌مدیره سابق گوگل می‌گوید از آنجایی که مردم به باور‌کردن چیزهایی که می‌بینند و می‌شنوند، عادت کرده‌اند، هوش مصنوعی می‌تواند با تولید تصاویر و صداهای واقع‌گرایانه مشکلاتی را در‌زمینه نشر اطلاعات نادرست به‌وجود بیاورد.

درنتیجه فعالان صنعت فناوری باید گرد هم بیایند تا تدابیر محافظتی لازم را ایجاد کنند؛ چرا که این فناوری مدام بزرگ و بزرگ‌تر خواهد شد. اشمیت اضافه می‌کند: «همه روی بحث سوگیری تمرکز کرده‌اند که البته مشکل‌ساز بوده و تلاش برای حل آن شروع شده است. اما مشکل اصلی این است که وقتی این سیستم‌ها برای دستکاری زندگی روزمره مردم استفاده می‌شوند، عملاً شیوه تفکر، انتخاب و… آن‌ها را تغییر می‌دهند و این تغییرات بر عملکرد دموکراسی اثر می‌گذارد.»


Source link

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا