هوش مصنوعی

کاربران می‌بایست دقت پاسخ‌های هوش مصنوعی را مورد بررسی قرار دهند

زمانی که شما شروع به یک گفتگوی جدید با ChatGPT می‌کنید، در پایین صفحه متنی ظاهر می‌شود که بیان می‌کند «ChatGPT ممکن است دچار اشتباه شود. حتماً اطلاعات حیاتی را بررسی کنید.» این هشدار نه تنها در نسخه به‌روزرسانی شده مدل، یعنی GPT-5 همچنان برقرار است، بلکه اخیراً یکی از مدیران ارشد OpenAI نیز مجدداً به این نکته تأکید کرده است.

«نیک تورلی»، رهبری بخش ChatGPT در OpenAI، در خلال یک پادکست در وب‌سایت The Verge اظهار داشت:

«مسئله قابل‌اعتماد بودن، به فاصله میان دو حالت «بسیار قابل‌اعتماد» و «کاملاً قابل‌اعتماد» بازمی‌گردد. تا زمانی که نتوانیم نشان دهیم که نسبت به یک کارشناس انسانی در تمامی زمینه‌ها قابل‌اعتمادتر هستیم، همچنان به کاربران توصیه می‌کنیم که پاسخ‌ها را دوباره بررسی کنند.»

ChatGPT بایستی به‌عنوان نظر دوم شما مطرح باشد و نه منبع اولیه

او در ادامه افزود که کاربران باید به ChatGPT به‌عنوان منبع نخست حقیقت نگاه نکنند و بیشتر آن را به‌عنوان یک نظر دوم تلقی کنند. تورلی همچنین به خطر «توهم» در ابزارهای هوش مصنوعی ‌مولد مانند ChatGPT اشاره کرد و هشدار داد که این ابزارها ممکن است اطلاعاتی را به نمایش بگذارند که حقیقت ندارند. این موضوع ناشی از طراحی مدل‌ها برای پیش‌بینی محتمل‌ترین پاسخ است و هدف اصلی آنها درک واقعیت نیست.

به گفته او، این ابزار در صورت استفاده همزمان با منابع معتبر مانند موتورهای جستجو یا داده‌های خاص یک شرکت، به بهترین شکل عمل می‌کند:

«من هنوز هم بر این باورم که بهترین خروجی یک مدل زبانی بزرگ، آن مدلی است که به واقعیت متصل باشد. برای همین منظور، قابلیت جستجو را به ChatGPT اضافه کردیم و معتقدم این ویژگی تفاوت قابل توجهی به همراه داشته است.»

تورلی همچنین بر این نکته تأکید کرد که GPT-5 نسبت به نسخه‌های قبلی در کاهش خطاها پیشرفت‌هایی داشته است، اما هنوز به سطح ایده‌آل نرسیده است. وی در این زمینه چنین گفت:

«مطمئن هستم که بالاخره مشکل توهم قابل حل خواهد بود، اما قطعاً در فصل آینده این موضوع به وقوع نخواهد پیوست.»

با توجه به تمام این مسائل، او توصیه کرده که کاربران همواره باید اطلاعاتی که از ChatGPT یا هر چت‌بات دیگری دریافت می‌کنند را با منابع معتبر یا نظرات کارشناسان مقایسه کنند، حتی اگر پاسخ‌ها با لینک‌های مرتبط ارائه شده باشد.

مقالات مرتبط

دکمه بازگشت به بالا