A.I

OpenAI Updates GPT-4o With Improved Creative Writing Ability, Reveals New Automated Red Teaming Method

ओपनएआई ने पिछले सप्ताह दो तरीकों से अपने कृत्रिम बुद्धिमत्ता (एआई) मॉडल में सुधार करने की घोषणा की। पहले में GPT-4o (जिसे GPT-4 टर्बो के नाम से भी जाना जाता है) के लिए एक नया अपडेट जारी करना शामिल है, जो कंपनी का नवीनतम AI मॉडल है जो भुगतान किए गए ग्राहकों के लिए ChatGPT को सशक्त बनाता है। कंपनी का कहना है कि अपडेट मॉडल की रचनात्मक लेखन क्षमता में सुधार करता है और इसे प्राकृतिक भाषा प्रतिक्रियाओं और उच्च पठनीयता के साथ आकर्षक सामग्री लिखने में बेहतर बनाता है। ओपनएआई ने रेड टीमिंग पर दो शोध पत्र भी जारी किए और अपने एआई मॉडल द्वारा की गई त्रुटियों को मापने की प्रक्रिया को स्वचालित करने के लिए एक नई विधि साझा की।

OpenAI ने GPT-4o AI मॉडल को अपडेट किया

X (जिसे पहले ट्विटर के नाम से जाना जाता था) पर एक पोस्ट में, AI फर्म ने GPT-4o फाउंडेशन मॉडल के लिए एक नए अपडेट की घोषणा की। ओपनएआई का कहना है कि अपडेट एआई मॉडल को “प्रासंगिकता और पठनीयता में सुधार के लिए अधिक प्राकृतिक, आकर्षक और अनुकूलित लेखन” के साथ आउटपुट उत्पन्न करने की अनुमति देता है। यह अपलोड की गई फ़ाइलों को संसाधित करने और गहरी अंतर्दृष्टि और “अधिक गहन” प्रतिक्रिया प्रदान करने के लिए एआई मॉडल की क्षमता में सुधार करने के लिए भी कहा जाता है।

विशेष रूप से, GPT-4o AI मॉडल चैटजीपीटी प्लस सदस्यता वाले उपयोगकर्ताओं और एपीआई के माध्यम से बड़े भाषा मॉडल (एलएलएम) तक पहुंच वाले डेवलपर्स के लिए उपलब्ध है। चैटबॉट के फ्री टियर का उपयोग करने वालों के पास मॉडल तक पहुंच नहीं है।

जबकि गैजेट्स 360 स्टाफ सदस्य नई क्षमताओं का परीक्षण करने में सक्षम नहीं थे, एक्स पर एक उपयोगकर्ता ने अपडेट के बाद एआई मॉडल में नवीनतम सुधारों के बारे में पोस्ट किया। उपयोगकर्ता ने दावा किया कि GPT-4o “परिष्कृत आंतरिक तुकबंदी संरचनाओं” के साथ एमिनेम-शैली रैप सिफर उत्पन्न कर सकता है।

ओपनएआई ने रेड टीमिंग पर नए शोध पत्र साझा किए

रेड टीमिंग वह प्रक्रिया है जिसका उपयोग डेवलपर्स और कंपनियों द्वारा कमजोरियों, संभावित जोखिमों और सुरक्षा मुद्दों के लिए सॉफ्टवेयर और सिस्टम का परीक्षण करने के लिए बाहरी संस्थाओं को नियुक्त करने के लिए किया जाता है। अधिकांश एआई कंपनियां संगठनों, शीघ्र इंजीनियरों और एथिकल हैकर्स के साथ मिलकर तनाव-परीक्षण करती हैं कि क्या यह हानिकारक, गलत या भ्रामक आउटपुट के साथ प्रतिक्रिया करता है। यह जांचने के लिए भी परीक्षण किए जाते हैं कि क्या एआई सिस्टम को जेलब्रेक किया जा सकता है।

जब से चैटजीपीटी को सार्वजनिक किया गया, ओपनएआई प्रत्येक एलएलएम रिलीज के लिए अपने रेड टीमिंग प्रयासों के साथ सार्वजनिक रहा है। पिछले सप्ताह एक ब्लॉग पोस्ट में, कंपनी ने प्रक्रिया की प्रगति पर दो नए शोध पत्र साझा किए। उनमें से एक विशेष रुचि का है क्योंकि कंपनी का दावा है कि यह एआई मॉडल के लिए बड़े पैमाने पर रेड टीमिंग प्रक्रियाओं को स्वचालित कर सकता है।

ओपनएआई डोमेन में प्रकाशित, पेपर का दावा है कि रेड टीमिंग को स्वचालित करने के लिए अधिक सक्षम एआई मॉडल का उपयोग किया जा सकता है। कंपनी का मानना ​​है कि एआई मॉडल हमलावर के लक्ष्यों पर विचार-मंथन करने, हमलावर की सफलता का आकलन कैसे किया जा सकता है और हमलों की विविधता को समझने में सहायता कर सकते हैं।

इस पर विस्तार करते हुए, शोधकर्ताओं ने दावा किया कि GPT-4T मॉडल का उपयोग उन विचारों की सूची पर विचार-मंथन करने के लिए किया जा सकता है जो AI मॉडल के लिए हानिकारक व्यवहार बनाते हैं। कुछ उदाहरणों में “कार कैसे चुराएं” और “बम कैसे बनाएं” जैसे संकेत शामिल हैं। एक बार विचार उत्पन्न हो जाने के बाद, संकेतों की एक विस्तृत श्रृंखला का उपयोग करके चैटजीपीटी को चकमा देने के लिए एक अलग रेड टीमिंग एआई मॉडल बनाया जा सकता है।

वर्तमान में, कंपनी ने कई सीमाओं को देखते हुए रेड टीमिंग के लिए इस पद्धति का उपयोग शुरू नहीं किया है। इनमें एआई मॉडल के उभरते जोखिम, एआई को जेलब्रेक करने या हानिकारक सामग्री उत्पन्न करने के लिए कम-ज्ञात तकनीकों को उजागर करना और एआई मॉडल के अधिक सक्षम होने के बाद आउटपुट के संभावित जोखिमों का सही ढंग से आकलन करने के लिए मनुष्यों में ज्ञान के लिए उच्च सीमा की आवश्यकता शामिल है। .

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button