OpenAI Employees Say Company Is Neglecting Safety and Security Protocols: Report
ओपनएआई अपने चैटजीपीटी चैटबॉट और उन्नत बड़े भाषा मॉडल (एलएलएम) के साथ कृत्रिम बुद्धिमत्ता (एआई) बूम में सबसे आगे रहा है, लेकिन कंपनी के सुरक्षा रिकॉर्ड ने चिंताएं पैदा कर दी हैं। एक नई रिपोर्ट में दावा किया गया है कि एआई फर्म नए मॉडल विकसित करते समय तेजी से काम कर रही है और सुरक्षा प्रोटोकॉल की उपेक्षा कर रही है। रिपोर्ट में इस बात पर प्रकाश डाला गया कि यह लापरवाही OpenAI के नवीनतम GPT-4 ओमनी (या GPT-4o) मॉडल के लॉन्च होने से पहले हुई थी।
कुछ गुमनाम ओपनएआई कर्मचारियों ने हाल ही में एआई सिस्टम के निर्माण में निगरानी की कमी के बारे में चिंता व्यक्त करते हुए एक खुले पत्र पर हस्ताक्षर किए थे। विशेष रूप से, एआई फर्म ने नए प्रोटोकॉल का मूल्यांकन और विकास करने के लिए चुनिंदा बोर्ड सदस्यों और निदेशकों को शामिल करते हुए एक नई सुरक्षा और सुरक्षा समिति भी बनाई।
ओपनएआई ने सुरक्षा प्रोटोकॉल की उपेक्षा करने की बात कही
हालाँकि, तीन अनाम ओपनएआई कर्मचारियों ने द वाशिंगटन पोस्ट को बताया कि टीम को एक नए परीक्षण प्रोटोकॉल के माध्यम से तेजी लाने के लिए दबाव महसूस हुआ, जिसे “ओपनएआई के नेताओं द्वारा निर्धारित मई की लॉन्च तिथि को पूरा करने के लिए एआई सिस्टम को विनाशकारी नुकसान पहुंचाने से रोकने के लिए” डिज़ाइन किया गया था।
विशेष रूप से, ये प्रोटोकॉल यह सुनिश्चित करने के लिए मौजूद हैं कि एआई मॉडल रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियार बनाने या साइबर हमलों को अंजाम देने में सहायता जैसी हानिकारक जानकारी प्रदान नहीं करते हैं।
इसके अलावा, रिपोर्ट में बताया गया है कि इसी तरह की घटना GPT-4o के लॉन्च से पहले हुई थी, जिसे कंपनी ने अपना सबसे उन्नत AI मॉडल बताया था। “उन्होंने यह जानने से पहले लॉन्च के बाद की पार्टी की योजना बनाई कि क्या लॉन्च करना सुरक्षित है। हम मूल रूप से इस प्रक्रिया में विफल रहे, ”रिपोर्ट में एक अनाम ओपनएआई कर्मचारी के हवाले से कहा गया है।
यह पहली बार नहीं है जब OpenAI के कर्मचारियों ने कंपनी में सुरक्षा और सुरक्षा प्रोटोकॉल की स्पष्ट उपेक्षा की शिकायत की है। पिछले महीने, OpenAI और Google DeepMind के कई पूर्व और वर्तमान कर्मचारियों ने एक खुले पत्र पर हस्ताक्षर किए, जिसमें नए AI सिस्टम के निर्माण में निगरानी की कमी पर चिंता व्यक्त की गई, जो बड़े जोखिम पैदा कर सकते हैं।
पत्र में सरकारी हस्तक्षेप और नियामक तंत्र के साथ-साथ नियोक्ताओं द्वारा मजबूत व्हिसलब्लोअर सुरक्षा प्रदान करने का आह्वान किया गया। एआई के तीन गॉडफादरों में से दो, जेफ्री हिंटन और योशुआ बेंगियो ने खुले पत्र का समर्थन किया।
मई में, ओपनएआई ने एक नई सुरक्षा और सुरक्षा समिति के निर्माण की घोषणा की, जिसे “ओपनएआई परियोजनाओं और संचालन के लिए महत्वपूर्ण सुरक्षा और सुरक्षा निर्णयों” पर एआई फर्म की प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन और आगे विकसित करने का काम सौंपा गया है। कंपनी ने हाल ही में एक जिम्मेदार और नैतिक एआई मॉडल, जिसे मॉडल स्पेक कहा जाता है, के निर्माण के लिए नए दिशानिर्देश भी साझा किए हैं।