GPT-4o Fine-Tuning Feature Released, OpenAI to Allow Users to Train AI Model With Custom Datasets
GPT-4o, OpenAI का नवीनतम और सबसे शक्तिशाली कृत्रिम बुद्धिमत्ता (AI) मॉडल जो मई में जारी किया गया था, को एक नया अपग्रेड मिल रहा है। मंगलवार को, कंपनी ने एआई मॉडल के लिए एक नया फाइन-ट्यूनिंग फीचर जारी किया जो डेवलपर्स और संगठनों को कस्टम डेटासेट का उपयोग करके इसे प्रशिक्षित करने की अनुमति देगा। यह उपयोगकर्ताओं को उनके उपयोग से संबंधित अधिक प्रासंगिक और केंद्रित डेटा जोड़ने और उत्पन्न प्रतिक्रियाओं को अधिक सटीक बनाने की अनुमति देगा। अगले महीने के लिए, एआई फर्म ने यह भी घोषणा की है कि वह GPT-4o मॉडल को बढ़ाने के लिए संगठनों को मुफ्त प्रशिक्षण टोकन प्रदान करेगी।
GPT-4o को फाइन-ट्यूनिंग सुविधा मिलती है
एक पोस्ट में, OpenAI ने नई सुविधा के लॉन्च की घोषणा की और बताया कि यह डेवलपर्स और संगठनों को विशिष्ट उपयोग के मामलों के लिए कम लागत पर उच्च प्रदर्शन प्राप्त करने की अनुमति देगा। इसे “डेवलपर्स से सबसे अधिक अनुरोधित सुविधाओं में से एक” कहते हुए, एआई फर्म ने बताया कि फाइन-ट्यूनिंग मॉडल को प्रतिक्रियाओं की संरचना और टोन को अनुकूलित करने में सक्षम बनाएगी। यह GPT-4o को जटिल डोमेन-विशिष्ट निर्देशों का पालन करने की भी अनुमति देगा।
इसके अतिरिक्त, कंपनी ने यह भी घोषणा की कि वह 23 सितंबर तक संगठनों को एआई मॉडल के लिए मुफ्त प्रशिक्षण टोकन प्रदान करेगी। GPT-4o का उपयोग करने वाले उद्यमों को प्रति दिन दस लाख प्रशिक्षण टोकन मिलेंगे, जबकि GPT-4o मिनी का उपयोग करने वालों को प्रति दिन दो मिलियन प्रशिक्षण टोकन मिलेंगे।
इसके अलावा, मॉडलों को फाइन-ट्यूनिंग प्रशिक्षण देने पर प्रति मिलियन टोकन 25 डॉलर (लगभग 2,000 रुपये) का खर्च आएगा। ओपनएआई ने कहा कि इसके अलावा, अनुमान की लागत प्रति मिलियन इनपुट टोकन $3.75 (लगभग 314 रुपये) और प्रति मिलियन आउटपुट टोकन $15 (लगभग 1,250 रुपये) होगी।
GPT-4o को फाइन-ट्यून करने के लिए, उपयोगकर्ता नई विंडो में खुलने वाले फाइन-ट्यूनिंग डैशबोर्ड पर जा सकते हैं, Create पर क्लिक कर सकते हैं, और बेस मॉडल ड्रॉप-डाउन मेनू से “gpt-4o-2024-08-06” का चयन कर सकते हैं। मिनी मॉडल के लिए भी ऐसा करने के लिए, उपयोगकर्ताओं को “gpt-4o-mini-2024-07-18” बेस मॉडल का चयन करना होगा। ये AI मॉडल केवल उन डेवलपर्स के लिए उपलब्ध होंगे जिन्होंने OpenAI के भुगतान स्तरों की सदस्यता ली है।
इस संदर्भ में फाइन-ट्यूनिंग अनिवार्य रूप से बड़े भाषा मॉडल (एलएलएम) की पूर्ण प्रसंस्करण क्षमताओं को प्राप्त करने की एक विधि है, जबकि विशिष्ट डेटासेट को विशिष्ट वर्कफ़्लो के लिए अधिक ग्रहणशील बनाने के लिए क्यूरेट किया जाता है। यह एआई एजेंट या जीपीटी की तरह काम करता है, लेकिन यह प्रसंस्करण शक्ति में सीमित नहीं है, जिसके परिणामस्वरूप तेज और आम तौर पर अधिक सटीक प्रतिक्रियाएं मिलती हैं।