A.I

OpenAI Employees Say Company Is Neglecting Safety and Security Protocols: Report

ओपनएआई अपने चैटजीपीटी चैटबॉट और एडवांस्ड लार्ज लैंग्वेज मॉडल (एलएलएम) के साथ आर्टिफिशियल इंटेलिजेंस (एआई) बूम में सबसे आगे रहा है, लेकिन कंपनी के सुरक्षा रिकॉर्ड ने चिंताएं पैदा कर दी हैं। एक नई रिपोर्ट में दावा किया गया है कि एआई फर्म नए मॉडल विकसित करते समय सुरक्षा और सुरक्षा प्रोटोकॉल की उपेक्षा कर रही है। रिपोर्ट ने इस बात पर प्रकाश डाला कि ओपनएआई के नवीनतम GPT-4 ओमनी (या GPT-4o) मॉडल के लॉन्च होने से पहले लापरवाही हुई थी।

ओपनएआई के कुछ अनाम कर्मचारियों ने हाल ही में एक खुले पत्र पर हस्ताक्षर किए थे, जिसमें एआई सिस्टम के निर्माण के बारे में निगरानी की कमी के बारे में चिंता व्यक्त की गई थी। उल्लेखनीय रूप से, एआई फर्म ने नए प्रोटोकॉल का मूल्यांकन और विकास करने के लिए चुनिंदा बोर्ड सदस्यों और निदेशकों वाली एक नई सुरक्षा और सुरक्षा समिति भी बनाई।

ओपनएआई पर सुरक्षा प्रोटोकॉल की अनदेखी करने का आरोप

हालांकि, ओपनएआई के तीन अनाम कर्मचारियों ने द वाशिंगटन पोस्ट को बताया कि टीम पर नए परीक्षण प्रोटोकॉल को तेजी से पूरा करने का दबाव महसूस हुआ, जिसे “एआई सिस्टम को विनाशकारी नुकसान पहुंचाने से रोकने के लिए, ओपनएआई के नेताओं द्वारा निर्धारित मई लॉन्च तिथि को पूरा करने के लिए” डिजाइन किया गया था।

विशेष रूप से, ये प्रोटोकॉल यह सुनिश्चित करने के लिए मौजूद हैं कि एआई मॉडल हानिकारक जानकारी प्रदान न करें, जैसे कि रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियार कैसे बनाएं या साइबर हमले करने में सहायता कैसे करें।

इसके अलावा, रिपोर्ट में इस बात पर प्रकाश डाला गया कि GPT-4o के लॉन्च से पहले भी ऐसी ही घटना हुई थी, जिसे कंपनी ने अपना सबसे उन्नत AI मॉडल बताया था। रिपोर्ट में एक अनाम OpenAI कर्मचारी के हवाले से कहा गया है, “उन्होंने लॉन्च के बाद पार्टी की योजना बनाई, इससे पहले कि वे यह जान सकें कि लॉन्च करना सुरक्षित है या नहीं। हम मूल रूप से इस प्रक्रिया में विफल रहे।”

यह पहली बार नहीं है जब OpenAI के कर्मचारियों ने कंपनी में सुरक्षा और संरक्षा प्रोटोकॉल के प्रति स्पष्ट उपेक्षा को चिन्हित किया है। पिछले महीने, OpenAI और Google DeepMind के कई पूर्व और वर्तमान कर्मचारियों ने एक खुले पत्र पर हस्ताक्षर किए थे, जिसमें नए AI सिस्टम के निर्माण में निगरानी की कमी पर चिंता व्यक्त की गई थी, जो बड़े जोखिम पैदा कर सकते हैं।

पत्र में सरकारी हस्तक्षेप और विनियामक तंत्र के साथ-साथ नियोक्ताओं द्वारा मजबूत व्हिसलब्लोअर सुरक्षा प्रदान करने का आह्वान किया गया। एआई के तीन गॉडफादरों में से दो, ज्योफ्रे हिंटन और योशुआ बेंगियो ने खुले पत्र का समर्थन किया।

मई में, OpenAI ने एक नई सुरक्षा और संरक्षा समिति के गठन की घोषणा की, जिसे “OpenAI परियोजनाओं और संचालनों के लिए महत्वपूर्ण सुरक्षा और संरक्षा निर्णयों” पर AI फ़र्म की प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन करने और उन्हें आगे विकसित करने का काम सौंपा गया है। कंपनी ने हाल ही में एक जिम्मेदार और नैतिक AI मॉडल बनाने की दिशा में नए दिशा-निर्देश भी साझा किए हैं, जिन्हें मॉडल स्पेक कहा जाता है।

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button