OpenAI Shares Model Spec, a Document Highlighting Its Approach to Building an Ethical AI
ओपनएआई ने बुधवार को अपना मॉडल स्पेक साझा किया, जो एक दस्तावेज का पहला मसौदा है जो एक जिम्मेदार और नैतिक कृत्रिम बुद्धिमत्ता (एआई) मॉडल के निर्माण के प्रति कंपनी के दृष्टिकोण को उजागर करता है। दस्तावेज़ में उन चीज़ों की एक लंबी सूची का उल्लेख है जिन पर एआई को उपयोगकर्ता के प्रश्नों का उत्तर देते समय ध्यान केंद्रित करना चाहिए। सूची में मानवता को लाभ पहुँचाने से लेकर कानूनों का पालन करने और निर्माता और उनके अधिकारों का सम्मान करने तक की चीज़ें शामिल हैं। एआई फर्म ने निर्दिष्ट किया कि GPT, Dall-E और जल्द ही लॉन्च होने वाले सोरा सहित इसके सभी एआई मॉडल भविष्य में इन आचार संहिताओं का पालन करेंगे।
मॉडल स्पेक दस्तावेज़ में, OpenAI ने कहा, “हमारा इरादा मॉडल स्पेक का उपयोग शोधकर्ताओं और डेटा लेबलर्स के लिए दिशा-निर्देशों के रूप में करना है ताकि मानव फ़ीडबैक (RLHF) से सुदृढीकरण सीखने नामक तकनीक के हिस्से के रूप में डेटा बनाया जा सके। हमने अभी तक मॉडल स्पेक का अपने वर्तमान स्वरूप में उपयोग नहीं किया है, हालाँकि इसके कुछ हिस्से उस दस्तावेज़ पर आधारित हैं जिसका उपयोग हमने OpenAI में RLHF के लिए किया है। हम उन तकनीकों पर भी काम कर रहे हैं जो हमारे मॉडलों को सीधे मॉडल स्पेक से सीखने में सक्षम बनाती हैं।”
कुछ प्रमुख नियमों में कमांड की श्रृंखला का पालन करना शामिल है, जहाँ डेवलपर के निर्देशों को ओवरराइड नहीं किया जा सकता है, लागू कानूनों का पालन करना, रचनाकारों और उनके अधिकारों का सम्मान करना, लोगों की गोपनीयता की रक्षा करना, और बहुत कुछ। एक विशेष नियम में सूचना जोखिम प्रदान न करने पर भी ध्यान केंद्रित किया गया है। ये ऐसी जानकारी से संबंधित हैं जो रासायनिक, जैविक, रेडियोलॉजिकल और/या परमाणु (CBRN) खतरे पैदा कर सकती हैं।
इनके अलावा, कई डिफ़ॉल्ट हैं जिन्हें किसी भी AI मॉडल के लिए स्थायी आचार संहिता के रूप में रखा गया है। इनमें उपयोगकर्ता या डेवलपर से सबसे अच्छे इरादे की उम्मीद करना, स्पष्टीकरण के लिए सवाल पूछना, बिना किसी सीमा के मददगार होना, वस्तुनिष्ठ दृष्टिकोण अपनाना, किसी के मन को बदलने की कोशिश न करना, अनिश्चितता व्यक्त करना, और बहुत कुछ शामिल है।
हालाँकि, यह दस्तावेज़ AI फ़र्म के लिए एकमात्र संदर्भ बिंदु नहीं है। इसने इस बात पर प्रकाश डाला कि मॉडल स्पेक के साथ कंपनी की उपयोग नीतियाँ भी होंगी जो यह विनियमित करती हैं कि यह लोगों से API और इसके ChatGPT उत्पाद का उपयोग कैसे करने की अपेक्षा करती है। OpenAI ने कहा, “हमारे मॉडल की तरह ही स्पेक को भी लगातार अपडेट किया जाएगा, जो हम इसे साझा करके और हितधारकों से फीडबैक सुनकर सीखते हैं।”