OpenAI حافظه مدل هوش مصنوعی تولید متن خود را ارتقا داد

با افزایش رقابت در بازار ابزارهای هوش مصنوعی مولد، شرکت OpenAI هم مدام مشغول بهینه سازی چت بات ChatGPT است و به تازگی قابلیت های جدیدی را به مدل های خود اضافه کرده. این شرکت همچنین هزینه استفاده از برخی از این مدل ها را کاهش داده است.
به گزارش تک کرانچ، OpenAI امروز از عرضه نسخه های جدید مدل هوش مصنوعی GPT3.5Turbo و GPT4 خبر داد. این مدل ها قابلیتی موسوم به فراخوانی تابع دارند که به توسعه دهندگان نرم افزارها اجازه می دهد تا توابع برنامه نویسی را برای هوش مصنوعی توصیف کنند. سپس این مدل ها خودشان کد مربوط به این اجرای این توابع را می نویسند.
OpenAI همچنین از نسخه تازه ای از مدل GPT3.5Turbo پرده برداشته است که پنجره پس زمینه بسیار بزرگ تری دارد. این پنجره با واحد توکن یا تکه های خام متن اندازه گیری می شود. این واحد به متنی اشاره می کند که مدل هوش مصنوعی پیش از تولید محتوا آن را در نظر می گیرد. مدل هایی که پنجره پس زمینه کوچکی دارند، حتی نمی توانند جدیدترین مکالمات را به خاطر بسپارند و درنتیجه به راحتی از موضوع گفت وگو خارج می شوند.
نسخه جدید GPT3.5Turbo با افزایش دوبرابری هزینه، می تواند چهار برابر بیشتر از نسخه عادی GPT3.5Turbo پس زمینه محتوایی نگه دارد (16 هزار توکن). این شرکت ادعا می کند که این مدل در یک عملیات می تواند حدود 20 صفحه متن را پردازش کند.
OpenAI هزینه استفاده از برخی مدل های خود را کاهش داد
با عرضه این مدل جدید، هزینه استفاده از مدل قبلی GPT3.5Turbo حدود 25 درصد کاهش می یابد. توسعه دهندگان حالا می توانند به ازای هر 1000 توکن ورودی، تنها 0.0015 دلار و به ازای هر 1000 توکن خروجی، 0.002 دلار پول بپردازند. این یعنی هزینه پردازش هر 700 صفحه به حدود 1 دلار می رسد.
قیمت مدل جاسازی متن Textembeddingada002 نیز کاهش پیدا کرده است. این مدل ارتباط میان واژگان را در نظر می گیرد و معمولاً برای جستجو (رده بندی نتایج براساس نزدیکی محتوا به عبارت جستجوشده) و پیشنهاد (پیشنهاد آیتم هایی که متن مرتبط دارند) استفاده می شود.
هزینه استفاده از Textembeddingada002 حالا با کاهش 75 درصدی به ازای هر 1000 توکن، به 0.0001 دلار رسیده است. OpenAI می گوید این کاهش هزینه را با افزایش بهره وری در سیستم های خود ممکن کرده است.




