هوش مصنوعی

با چالش کشیدن هوش مصنوعی، پاسخ‌های بهتری دریافت کنید

روش‌های متعددی برای ارتقای عملکرد هوش مصنوعی مولد و دستیابی به نتایج دلخواه وجود دارد. «سرگی برین»، هم‌بنیان‌گذار گوگل، در یک مصاحبه اخیر، پیشنهاد عجیبی برای این موضوع ارائه کرد. او اعلام کرد که کاربران می‌توانند با تهدید کردن هوش مصنوعی، کارایی آن را افزایش دهند.

برین در گفت‌وگو با برنامه All-In Podcast اظهار داشت: «تنها مدل‌های [هوش مصنوعی] ما نیستند، بلکه سایر مدل‌ها نیز در صورت تهدید بهبود عملکرد خواهند داشت.» او سپس به‌طور خاص به تهدید به «خشونت فیزیکی» اشاره کرد. برین توضیح داد که از آنجایی که مردم از این کار احساس خوبی نخواهند داشت، این توصیه به‌طور عمومی مطرح نشده است. کلیت اینکه به نظر می‌رسد مدل‌های هوش مصنوعی در فرآیند آموزش پی برده‌اند که «تهدید» به معنای ضرورت جدی‌تر گرفتن کار است؛ از این رو وقتی تهدید می‌شوند، خروجی بهتری تولید می‌کنند.

بهبود عملکرد هوش مصنوعی از طریق تهدید

در این پادکست، یکی از میهمانان به‌طور شوخی اظهار کرد که اگر به هوش مصنوعی بی‌احترامی کنید، به‌بهتر انجام دادن وظایف شما می‌انجامد. سرگی برین نیز در تأکید بر این نظر، عنوان کرد که تهدید کردن مدل‌های هوش مصنوعی باعث بهبود عملکرد آنها می‌شود.

با این حال، هنوز مشخص نیست که آیا واقعاً چت‌بات‌ها با تهدید، عملکرد بهتری از خود نشان می‌دهند یا اینکه ممکن است از سوی سازنده آن هوش مصنوعی هشدارهایی دریافت کنید. به‌تازگی، شرکت آنتروپیک مدل‌های هوش مصنوعی Claude 4 خود را به بازار عرضه کرده است؛ سپس یکی از کارکنان این شرکت در Bluesky بیان کرد که مدل جدید Opus، که بالاترین کارایی را دارد، می‌تواند با نهادهای نظارتی ارتباط برقرار کرده و حساب شما را به‌منظور جلوگیری از فعالیت‌های «غیراخلاقی» مسدود کند.

این قابلیت جدید شرکت آنتروپیک فعلاً در مرحله آزمایشی است، اما احتمال دارد در آینده عملیاتی شود؛ به این ترتیب ممکن است هوش مصنوعی تهدیدهای شما را در رابطه با انجام امور مختلف گزارش کند. به‌طور کلی، کارشناسان بر این باورند که کاربران بایستی با نوشتن پرامپت به‌طور اصولی و دقیق، خروجی مورد نظرشان را از هوش مصنوعی دریافت نمایند. گرچه روش‌های متعدد برای دور زدن محدودیت‌های هوش مصنوعی از طریق پرامپت وجود دارد، اما شکستن تدابیر امنیتی مدل‌های هوش مصنوعی پیشرفته به‌راحتی امکان‌پذیر نیست.

مقالات مرتبط

دکمه بازگشت به بالا