هوش مصنوعی ویسپر OpenAI حتی در هنگام رونویسی دچار توهم میشود
ویسپر (Whisper) یک مدل هوش مصنوعی برای رونویسی گفتار است که در سال ۲۰۲۲ توسط OpenAI رونمایی شد. اما بهنظر میرسد این سرویس دارای مشکلاتی جدی در دنبالکردن صحبتها و بازنویسی آنهاست.
بر اساس گزارشی که Associated Press منتشر کرده، مهندسان نرمافزار، توسعهدهندگان و محققان دانشگاهی نگرانیهای جدی خود در مورد ابزار ویسپر را ابراز کردهاند. درحالیکه ابزارهای هوش مصنوعی مولد بهصورت کلی تمایل به هذیانگفتن دارند، اما نکته تعجبآور در مورد ابزار ویسپر این است که در رونویسی سخنان هم مشکلاتی دارد. در حالت عادی و وقتی که از چنین سرویسی استفاده میکنید، انتظار دارید که این ابزار دقیقاً سخنان گفتهشده را رونویسی کند.
ابزار ویسپر OpenAI نمیتواند سخنان را بهدقت رونویسی کند
به گفته محققانی که از ویسپر استفاده کردهاند، این سرویس مواردی همچون تفسیرهای نژادی و درمانهای پزشکی خیالی را در رونویسیهای خود میگنجاند که میتواند بسیار خطرناک باشد. هماکنون بسیاری از بیمارستانها و مراکز درمانی مختلف از این ابزار در زمینههای پزشکی استفاده میکنند و عدم رونویسی صحیح ممکن است به یک فاجعه منجر شود.
محققی از دانشگاه میشیگان که رونوشت جلسات عمومی را مطالعه کرده است میگوید که ابزار ویسپر در ۸ مورد از ۱۰ مورد رونویسی، دچار توهم شده است. همچنین یک مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسیهای ویسپر را مطالعه کرده میگوید که در بیش از نیمی از این رونویسیها موارد اشتباه و هذیان یافت شده. علاوهبراین، یک توسعهدهنده نیز میگوید که در تمام ۲۶۰۰ ساعت رونویسیهای این ابزار توهم پیدا کرده است.
سخنگوی OpenAI در واکنش به این خبر اعلام کرد که این شرکت بهصورت مداوم در حال تلاش برای بهبود دقت مدلها و کاهش توهمها است. او همچنین گفت که سیاستهای آنها استفاده از ویسپر را «در زمینههای خاص تصمیمگیری با ریسک بالا» ممنوع میکند. OpenAI در نهایت از محققان برای بهاشتراکگذاری یافتههای خود تقدیر کرد.