با چالش کشیدن هوش مصنوعی، پاسخهای بهتری دریافت کنید
روشهای متعددی برای ارتقای عملکرد هوش مصنوعی مولد و دستیابی به نتایج دلخواه وجود دارد. «سرگی برین»، همبنیانگذار گوگل، در یک مصاحبه اخیر، پیشنهاد عجیبی برای این موضوع ارائه کرد. او اعلام کرد که کاربران میتوانند با تهدید کردن هوش مصنوعی، کارایی آن را افزایش دهند.
برین در گفتوگو با برنامه All-In Podcast اظهار داشت: «تنها مدلهای [هوش مصنوعی] ما نیستند، بلکه سایر مدلها نیز در صورت تهدید بهبود عملکرد خواهند داشت.» او سپس بهطور خاص به تهدید به «خشونت فیزیکی» اشاره کرد. برین توضیح داد که از آنجایی که مردم از این کار احساس خوبی نخواهند داشت، این توصیه بهطور عمومی مطرح نشده است. کلیت اینکه به نظر میرسد مدلهای هوش مصنوعی در فرآیند آموزش پی بردهاند که «تهدید» به معنای ضرورت جدیتر گرفتن کار است؛ از این رو وقتی تهدید میشوند، خروجی بهتری تولید میکنند.
بهبود عملکرد هوش مصنوعی از طریق تهدید
در این پادکست، یکی از میهمانان بهطور شوخی اظهار کرد که اگر به هوش مصنوعی بیاحترامی کنید، بهبهتر انجام دادن وظایف شما میانجامد. سرگی برین نیز در تأکید بر این نظر، عنوان کرد که تهدید کردن مدلهای هوش مصنوعی باعث بهبود عملکرد آنها میشود.
با این حال، هنوز مشخص نیست که آیا واقعاً چتباتها با تهدید، عملکرد بهتری از خود نشان میدهند یا اینکه ممکن است از سوی سازنده آن هوش مصنوعی هشدارهایی دریافت کنید. بهتازگی، شرکت آنتروپیک مدلهای هوش مصنوعی Claude 4 خود را به بازار عرضه کرده است؛ سپس یکی از کارکنان این شرکت در Bluesky بیان کرد که مدل جدید Opus، که بالاترین کارایی را دارد، میتواند با نهادهای نظارتی ارتباط برقرار کرده و حساب شما را بهمنظور جلوگیری از فعالیتهای «غیراخلاقی» مسدود کند.
این قابلیت جدید شرکت آنتروپیک فعلاً در مرحله آزمایشی است، اما احتمال دارد در آینده عملیاتی شود؛ به این ترتیب ممکن است هوش مصنوعی تهدیدهای شما را در رابطه با انجام امور مختلف گزارش کند. بهطور کلی، کارشناسان بر این باورند که کاربران بایستی با نوشتن پرامپت بهطور اصولی و دقیق، خروجی مورد نظرشان را از هوش مصنوعی دریافت نمایند. گرچه روشهای متعدد برای دور زدن محدودیتهای هوش مصنوعی از طریق پرامپت وجود دارد، اما شکستن تدابیر امنیتی مدلهای هوش مصنوعی پیشرفته بهراحتی امکانپذیر نیست.