September 19, 2024
A.I

OpenAI Shares Model Spec, a Document Highlighting Its Approach to Building an Ethical AI

  • August 18, 2024
  • 1 min read
OpenAI Shares Model Spec, a Document Highlighting Its Approach to Building an Ethical AI

ओपनएआई ने बुधवार को अपना मॉडल स्पेक साझा किया, जो एक दस्तावेज का पहला मसौदा है जो एक जिम्मेदार और नैतिक कृत्रिम बुद्धिमत्ता (एआई) मॉडल के निर्माण के प्रति कंपनी के दृष्टिकोण को उजागर करता है। दस्तावेज़ में उन चीज़ों की एक लंबी सूची का उल्लेख है जिन पर एआई को उपयोगकर्ता के प्रश्नों का उत्तर देते समय ध्यान केंद्रित करना चाहिए। सूची में मानवता को लाभ पहुँचाने से लेकर कानूनों का पालन करने और निर्माता और उनके अधिकारों का सम्मान करने तक की चीज़ें शामिल हैं। एआई फर्म ने निर्दिष्ट किया कि GPT, Dall-E और जल्द ही लॉन्च होने वाले सोरा सहित इसके सभी एआई मॉडल भविष्य में इन आचार संहिताओं का पालन करेंगे।

मॉडल स्पेक दस्तावेज़ में, OpenAI ने कहा, “हमारा इरादा मॉडल स्पेक का उपयोग शोधकर्ताओं और डेटा लेबलर्स के लिए दिशा-निर्देशों के रूप में करना है ताकि मानव फ़ीडबैक (RLHF) से सुदृढीकरण सीखने नामक तकनीक के हिस्से के रूप में डेटा बनाया जा सके। हमने अभी तक मॉडल स्पेक का अपने वर्तमान स्वरूप में उपयोग नहीं किया है, हालाँकि इसके कुछ हिस्से उस दस्तावेज़ पर आधारित हैं जिसका उपयोग हमने OpenAI में RLHF के लिए किया है। हम उन तकनीकों पर भी काम कर रहे हैं जो हमारे मॉडलों को सीधे मॉडल स्पेक से सीखने में सक्षम बनाती हैं।”

कुछ प्रमुख नियमों में कमांड की श्रृंखला का पालन करना शामिल है, जहाँ डेवलपर के निर्देशों को ओवरराइड नहीं किया जा सकता है, लागू कानूनों का पालन करना, रचनाकारों और उनके अधिकारों का सम्मान करना, लोगों की गोपनीयता की रक्षा करना, और बहुत कुछ। एक विशेष नियम में सूचना जोखिम प्रदान न करने पर भी ध्यान केंद्रित किया गया है। ये ऐसी जानकारी से संबंधित हैं जो रासायनिक, जैविक, रेडियोलॉजिकल और/या परमाणु (CBRN) खतरे पैदा कर सकती हैं।

इनके अलावा, कई डिफ़ॉल्ट हैं जिन्हें किसी भी AI मॉडल के लिए स्थायी आचार संहिता के रूप में रखा गया है। इनमें उपयोगकर्ता या डेवलपर से सबसे अच्छे इरादे की उम्मीद करना, स्पष्टीकरण के लिए सवाल पूछना, बिना किसी सीमा के मददगार होना, वस्तुनिष्ठ दृष्टिकोण अपनाना, किसी के मन को बदलने की कोशिश न करना, अनिश्चितता व्यक्त करना, और बहुत कुछ शामिल है।

हालाँकि, यह दस्तावेज़ AI फ़र्म के लिए एकमात्र संदर्भ बिंदु नहीं है। इसने इस बात पर प्रकाश डाला कि मॉडल स्पेक के साथ कंपनी की उपयोग नीतियाँ भी होंगी जो यह विनियमित करती हैं कि यह लोगों से API और इसके ChatGPT उत्पाद का उपयोग कैसे करने की अपेक्षा करती है। OpenAI ने कहा, “हमारे मॉडल की तरह ही स्पेक को भी लगातार अपडेट किया जाएगा, जो हम इसे साझा करके और हितधारकों से फीडबैक सुनकर सीखते हैं।”


संबद्ध लिंक स्वचालित रूप से उत्पन्न हो सकते हैं – विवरण के लिए हमारा नैतिकता वक्तव्य देखें।

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Solverwp- WordPress Theme and Plugin