کاربران میبایست دقت پاسخهای هوش مصنوعی را مورد بررسی قرار دهند
زمانی که شما شروع به یک گفتگوی جدید با ChatGPT میکنید، در پایین صفحه متنی ظاهر میشود که بیان میکند «ChatGPT ممکن است دچار اشتباه شود. حتماً اطلاعات حیاتی را بررسی کنید.» این هشدار نه تنها در نسخه بهروزرسانی شده مدل، یعنی GPT-5 همچنان برقرار است، بلکه اخیراً یکی از مدیران ارشد OpenAI نیز مجدداً به این نکته تأکید کرده است.
«نیک تورلی»، رهبری بخش ChatGPT در OpenAI، در خلال یک پادکست در وبسایت The Verge اظهار داشت:
«مسئله قابلاعتماد بودن، به فاصله میان دو حالت «بسیار قابلاعتماد» و «کاملاً قابلاعتماد» بازمیگردد. تا زمانی که نتوانیم نشان دهیم که نسبت به یک کارشناس انسانی در تمامی زمینهها قابلاعتمادتر هستیم، همچنان به کاربران توصیه میکنیم که پاسخها را دوباره بررسی کنند.»
ChatGPT بایستی بهعنوان نظر دوم شما مطرح باشد و نه منبع اولیه
او در ادامه افزود که کاربران باید به ChatGPT بهعنوان منبع نخست حقیقت نگاه نکنند و بیشتر آن را بهعنوان یک نظر دوم تلقی کنند. تورلی همچنین به خطر «توهم» در ابزارهای هوش مصنوعی مولد مانند ChatGPT اشاره کرد و هشدار داد که این ابزارها ممکن است اطلاعاتی را به نمایش بگذارند که حقیقت ندارند. این موضوع ناشی از طراحی مدلها برای پیشبینی محتملترین پاسخ است و هدف اصلی آنها درک واقعیت نیست.
به گفته او، این ابزار در صورت استفاده همزمان با منابع معتبر مانند موتورهای جستجو یا دادههای خاص یک شرکت، به بهترین شکل عمل میکند:
«من هنوز هم بر این باورم که بهترین خروجی یک مدل زبانی بزرگ، آن مدلی است که به واقعیت متصل باشد. برای همین منظور، قابلیت جستجو را به ChatGPT اضافه کردیم و معتقدم این ویژگی تفاوت قابل توجهی به همراه داشته است.»
تورلی همچنین بر این نکته تأکید کرد که GPT-5 نسبت به نسخههای قبلی در کاهش خطاها پیشرفتهایی داشته است، اما هنوز به سطح ایدهآل نرسیده است. وی در این زمینه چنین گفت:
«مطمئن هستم که بالاخره مشکل توهم قابل حل خواهد بود، اما قطعاً در فصل آینده این موضوع به وقوع نخواهد پیوست.»
با توجه به تمام این مسائل، او توصیه کرده که کاربران همواره باید اطلاعاتی که از ChatGPT یا هر چتبات دیگری دریافت میکنند را با منابع معتبر یا نظرات کارشناسان مقایسه کنند، حتی اگر پاسخها با لینکهای مرتبط ارائه شده باشد.