توییتر برنامه راستیآزمایی توسط کاربران خود را برای تصاویر ارائه کرد
در روزهای اولیه ماه جاری، تصویری جعلی از وقوع انفجار در پنتاگون که ظاهراً توسط ابزارهای هوش مصنوعی ساخته شده بود، توسط یک حساب دارای تیک آبی منتشر شد و حسابی خبرساز شد. اکنون توییتر با وجود چنین مشکلاتی، برنامه راستیآزمایی خود که در آن از کاربران کمک گرفته میشود را گسترش داده تا با ویژگی جدیدی تحت عنوان Community Notes تصاویر را نیز شامل شود.
برنامه راستیآزمایی توییتر سال گذشته معرفی شد و کاربران از طریق آن میتوانند محتواهای بالقوه گمراهکننده این پلتفرم را مشخص کنند که با وجود آن، در زیر توییتها یادداشتهایی ظاهر میشوند. اکنون توییتر، قابلیت اضافه کردن یادداشتهای راستیآزمایی برای تصاویر را نیز در دسترس کاربران قرار داده تا از این طریق و با وجود اطلاعاتی که در زیر هر تصویر نمایش داده میشود، تشخیص تصاویر جعلی و حتی مواردی که توسط هوش مصنوعی ساخته شدهاند، آسانتر شود.
تشخیص سادهتر تصاویر ساختهشده توسط هوش مصنوعی در توییتر
توییتر در اطلاعیه خود، بهطور خاص به تصاویر تولیدشده توسط هوش مصنوعی اشاره کرده که ترکیبی از محتواهای گمراهکننده، ترسناک و سرگرمکننده را تشکیل میدهند که بسیار سریع در این شبکه اجتماعی فراگیر میشوند. در پست وبلاگ این شرکت آمده است:
«هدف Community Notes ایجاد دنیایی آگاهتر از طریق توانمندسازی افراد در توییتر برای اضافهکردن زمینههای بیشتر به توییتهای بالقوه گمراهکننده است.»
درحالحاضر ویژگی Community Notes فقط به توییتهای دارای یک تصویر محدود شده است و نمیتوان آن را برای ویدیوها یا پستهایی که شامل چند تصویر میشود، اعمال کرد. بااینوجود، توییتر در توییت خود توضیح میدهد که برای برطرفکردن این کمبود مهم در تلاش است. بدون شک ویدیوهای تولیدشده توسط هوش مصنوعی نیز ازجمله محتواهای بالقوه خطرناک اینترنت محسوب میشوند که باید با انتشار و خبرسازشدن آنها مقابله کرد.
همچنین توییتر اشاره کرده که این ویژگی درحالحاضر «از نظر دقت» دارای نقصهایی است و احتمالاً در برخی موارد دچار اشتباه شود.