گوگل ظاهراً برای بهبود جمینای از مدل Claude آنتروپیک استفاده میکند
نشریه تک کرانچ میگوید مکاتباتی مشاهده کرده که نشان میدهد پیمانکارانی که روی بهبود عملکردهای هوش مصنوعی جمینای گوگل کار میکنند، نتایج بررسی این ابزار را با نتایج هوش مصنوعی Claude مقایسه میکنند.
این موضوع این شائبه را ایجاد کرده که گوگل برای بهبود چتبات هوش مصنوعی خود سراغ استفاده از مدلهای هوش مصنوعی Claude از شرکت آنتروپیک رفته است. بهرغم سؤال تککرانچ از گوگل درمورد مجوزهای این شرکت برای استفاده از مدلهای آنتروپیک، این غول فناوری پاسخی به این سؤال نداده است.
براساس سیاستهای آنتروپیک، مشتریان این شرکت از دسترسی به Claude «برای ساخت محصول یا خدمات رقیب» یا «آموزش مدلهای هوش مصنوعی رقیب» بدون تأیید آنتروپیک منع شدهاند.
پاسخهای هوش مصنوعی Claude ظاهراً ایمنتر از جمینای هستند
ازآنجاییکه شرکتهای فناوری برای ساخت مدلهای پیشرفتهتر هوش مصنوعی رقابت میکنند، طبیعی است بخواهند نتایج مدلهای خود را با مدلهای رقیب مقایسه کنند اما این مقایسه معمولاً از طریق بنچمارکهای صنعتی انجام میشود نه استخدام پیمانکارانی که نتایج را با نتایج هوش مصنوعی رقیب مقایسه کنند.
پیمانکارانی که برای بهبود جمینای استخدام شدهاند، وظیفه ارزیابی دقت خروجیها را برعهده دارند و باید براساس معیارهایی مثل صداقت و پرگویی به هر پاسخ امتیاز بدهند. باتوجهبه مکاتبات فاششده، هر پیمانکار بهازای هر پرامپت ۳۰ دقیقه فرصت دارد که مشخص کند پاسخ جمینای بهتر بوده یا Claude.
همچنین این مکاتبات نشان میدهد پیمانکاران در پلتفرمی گوگل برای مقایسه این مدلها ساخته است، ارجاعاتی به مدل هوش مصنوعی Claude مشاهده کردهاند.
علاوهبراین، گفتگویی داخلی نشان میدهد پیمانکاران معتقدند پاسخهای Claude بیشتر از جمینای بر ایمنی تأکید دارند. ظاهراً یکی از پیمانکاران دراینباره گفته تنظیمات امنیتی هوش مصنوعی آنتروپیک میان مدلهای هوش مصنوعی سختگیرانهترین است. همچنین Claude در موارد خاص به درخواستهای ناایمن پاسخ نداده است.