قابلیت Finetuning برای مدل های GPT4o و GPT4o mini عرضه شد
اوایل 2024، OpenAI از پیشرفته ترین مدل چند وجهی خود، GPT4o رونمایی کرد. این مدل سریع تر و ارزان تر از GPT4 Turbo است همچنین قابلیت های درک تصویر قوی تری ارائه می دهد. ماه گذشته نیز این شرکت مدل مقرون به صرفه هوش مصنوعی خود به نام GPT4o mini را معرفی کرد. اکنون OpenAI قابلیت «تنظیم دقیق» یا Finetuning را برای GPT4o و GPT4o mini فراهم کرده که یکی از درخواست های پرتکرار توسعه دهندگان بوده است.
براساس اعلام OpenAI، اکنون با پشتیبانی مدل های جدید این شرکت از Finetuning، توسعه دهندگان می توانند مدل های GPT4o مینی و GPT4o را با استفاده از مجموعه داده های سفارشی خودشان برای دستیابی به عملکرد بالاتر با هزینه کمتر آموزش دهند.
قابلیت Finetuning در GPT4o و GPT4o mini
مدل های تولید متن OpenAI روی تعداد زیادی متن از قبل آموزش دیده اند. برای خروجی دقیق تر نیز هنگام آموزش چندین مثال در زمینه های مختلف به این مدل ارائه می شود که این فرایند «یادگیری چند شات» (Fewshot learning) نامیده می شود.
بااین حال ممکن است بخواهید مدل هوش مصنوعی در زمینه خاصی مانند معماری تخصص بیشتری داشته باشد؛ اینجاست که باید با قابلیت تنظیم دقیق یا Finetuning آن مدل را با داده های تخصصی بیشتری بهبود دهید. با این کار، دیگر نیازی نیست مثال های مختلفی به مدل ارائه بدهید که هزینه ها و سرعت پاسخگویی مدل را افزایش می دهد.
اکنون قابلیت تنظیم دقیق GPT4o و GPT4o مینی در دسترس همه توسعه دهندگان قرار گرفته است. OpenAI به منظور تنظیم دقیق GPT4o، روزانه یک میلیون توکن آموزشی رایگان برای مشترکین سازمانی و پولی و 2 میلیون توکن آموزشی رایگان برای تنظیم GPT4o mini ارائه می دهد.
البته این طرح رایگان تا 23 سپتامبر (2 مهرماه) در دسترس خواهد بود. در ادامه، آموزش بهینه GPT4o به ازای هر یک میلیون توکن 25 دلار هزینه خواهد داشت. برای تنظیم دقیق کافی است به داشبورد Finetuning در پلتفرم OpenAI بروید، روی گزینه Create کلیک کنید و یکی از مدل های gpt4o20240806 یا gpt4omini20240718 را کنید. پیش ازاین مدل های قدیمی تر این شرکت نیز این قابلیت را داشتند.