September 19, 2024
A.I

OpenAI Employees Say Company Is Neglecting Safety and Security Protocols: Report

  • August 18, 2024
  • 1 min read
OpenAI Employees Say Company Is Neglecting Safety and Security Protocols: Report

ओपनएआई अपने चैटजीपीटी चैटबॉट और एडवांस्ड लार्ज लैंग्वेज मॉडल (एलएलएम) के साथ आर्टिफिशियल इंटेलिजेंस (एआई) बूम में सबसे आगे रहा है, लेकिन कंपनी के सुरक्षा रिकॉर्ड ने चिंताएं पैदा कर दी हैं। एक नई रिपोर्ट में दावा किया गया है कि एआई फर्म नए मॉडल विकसित करते समय सुरक्षा और सुरक्षा प्रोटोकॉल की उपेक्षा कर रही है। रिपोर्ट ने इस बात पर प्रकाश डाला कि ओपनएआई के नवीनतम GPT-4 ओमनी (या GPT-4o) मॉडल के लॉन्च होने से पहले लापरवाही हुई थी।

ओपनएआई के कुछ अनाम कर्मचारियों ने हाल ही में एक खुले पत्र पर हस्ताक्षर किए थे, जिसमें एआई सिस्टम के निर्माण के बारे में निगरानी की कमी के बारे में चिंता व्यक्त की गई थी। उल्लेखनीय रूप से, एआई फर्म ने नए प्रोटोकॉल का मूल्यांकन और विकास करने के लिए चुनिंदा बोर्ड सदस्यों और निदेशकों वाली एक नई सुरक्षा और सुरक्षा समिति भी बनाई।

ओपनएआई पर सुरक्षा प्रोटोकॉल की अनदेखी करने का आरोप

हालांकि, ओपनएआई के तीन अनाम कर्मचारियों ने द वाशिंगटन पोस्ट को बताया कि टीम पर नए परीक्षण प्रोटोकॉल को तेजी से पूरा करने का दबाव महसूस हुआ, जिसे “एआई सिस्टम को विनाशकारी नुकसान पहुंचाने से रोकने के लिए, ओपनएआई के नेताओं द्वारा निर्धारित मई लॉन्च तिथि को पूरा करने के लिए” डिजाइन किया गया था।

विशेष रूप से, ये प्रोटोकॉल यह सुनिश्चित करने के लिए मौजूद हैं कि एआई मॉडल हानिकारक जानकारी प्रदान न करें, जैसे कि रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियार कैसे बनाएं या साइबर हमले करने में सहायता कैसे करें।

इसके अलावा, रिपोर्ट में इस बात पर प्रकाश डाला गया कि GPT-4o के लॉन्च से पहले भी ऐसी ही घटना हुई थी, जिसे कंपनी ने अपना सबसे उन्नत AI मॉडल बताया था। रिपोर्ट में एक अनाम OpenAI कर्मचारी के हवाले से कहा गया है, “उन्होंने लॉन्च के बाद पार्टी की योजना बनाई, इससे पहले कि वे यह जान सकें कि लॉन्च करना सुरक्षित है या नहीं। हम मूल रूप से इस प्रक्रिया में विफल रहे।”

यह पहली बार नहीं है जब OpenAI के कर्मचारियों ने कंपनी में सुरक्षा और संरक्षा प्रोटोकॉल के प्रति स्पष्ट उपेक्षा को चिन्हित किया है। पिछले महीने, OpenAI और Google DeepMind के कई पूर्व और वर्तमान कर्मचारियों ने एक खुले पत्र पर हस्ताक्षर किए थे, जिसमें नए AI सिस्टम के निर्माण में निगरानी की कमी पर चिंता व्यक्त की गई थी, जो बड़े जोखिम पैदा कर सकते हैं।

पत्र में सरकारी हस्तक्षेप और विनियामक तंत्र के साथ-साथ नियोक्ताओं द्वारा मजबूत व्हिसलब्लोअर सुरक्षा प्रदान करने का आह्वान किया गया। एआई के तीन गॉडफादरों में से दो, ज्योफ्रे हिंटन और योशुआ बेंगियो ने खुले पत्र का समर्थन किया।

मई में, OpenAI ने एक नई सुरक्षा और संरक्षा समिति के गठन की घोषणा की, जिसे “OpenAI परियोजनाओं और संचालनों के लिए महत्वपूर्ण सुरक्षा और संरक्षा निर्णयों” पर AI फ़र्म की प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन करने और उन्हें आगे विकसित करने का काम सौंपा गया है। कंपनी ने हाल ही में एक जिम्मेदार और नैतिक AI मॉडल बनाने की दिशा में नए दिशा-निर्देश भी साझा किए हैं, जिन्हें मॉडल स्पेक कहा जाता है।

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Solverwp- WordPress Theme and Plugin