OpenAI Says It’s ‘Dedicated’ to Making Sure Its AI Tools Don’t Cause Harm in Letter to US Lawmakers
ओपनएआई ने अमेरिकी सांसदों के प्रश्नों का उत्तर देते हुए कहा कि वह यह सुनिश्चित करने के लिए प्रतिबद्ध है कि उसके शक्तिशाली एआई उपकरण नुकसान न पहुंचाएं, तथा कर्मचारियों के पास सुरक्षा प्रथाओं के बारे में चिंता जताने के तरीके हों।
स्टार्टअप ने सांसदों को सुरक्षा के प्रति अपनी प्रतिबद्धता का आश्वासन देने का प्रयास किया, क्योंकि हवाई के डेमोक्रेट सीनेटर ब्रायन शेट्ज़ सहित पांच सीनेटरों ने मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन को संबोधित एक पत्र में ओपनएआई की नीतियों पर सवाल उठाए थे।
मुख्य रणनीति अधिकारी जेसन क्वोन ने बुधवार को सांसदों को लिखे एक पत्र में कहा, “हमारा मिशन यह सुनिश्चित करना है कि कृत्रिम बुद्धिमत्ता से समस्त मानवता को लाभ मिले, और हम अपनी प्रक्रिया के प्रत्येक चरण में कठोर सुरक्षा प्रोटोकॉल लागू करने के लिए समर्पित हैं।”
विशेष रूप से, ओपनएआई ने कहा कि वह कई वर्षों तक सुरक्षा-संबंधी अनुसंधान के लिए अपने कंप्यूटिंग संसाधनों का 20 प्रतिशत आवंटित करने के अपने वादे को पूरा करना जारी रखेगा। कंपनी ने अपने पत्र में यह भी वचन दिया कि वह आपसी गैर-असमानता समझौते के विशिष्ट मामलों को छोड़कर, वर्तमान और पूर्व कर्मचारियों के लिए गैर-असमानता समझौतों को लागू नहीं करेगी। कंपनी छोड़ने वाले कर्मचारियों पर ओपनएआई की पूर्व सीमाएँ असामान्य रूप से प्रतिबंधात्मक होने के कारण जांच के दायरे में आ गई हैं। ओपनएआई ने तब से कहा है कि उसने अपनी नीतियों में बदलाव किया है।
बाद में ऑल्टमैन ने सोशल मीडिया पर अपनी रणनीति के बारे में विस्तार से बताया।
उन्होंने एक्स पर लिखा, “हमारी टीम अमेरिकी एआई सेफ्टी इंस्टीट्यूट के साथ एक समझौते पर काम कर रही है, जिसके तहत हम अपने अगले फाउंडेशन मॉडल तक शीघ्र पहुंच उपलब्ध कराएंगे, ताकि हम एआई मूल्यांकन के विज्ञान को आगे बढ़ाने के लिए मिलकर काम कर सकें।”
ओपनएआई में सुरक्षा के बारे में कुछ त्वरित अपडेट:
जैसा कि हमने पिछले जुलाई में कहा था, हम पूरी कंपनी में सुरक्षा प्रयासों के लिए कम से कम 20% कंप्यूटिंग संसाधन आवंटित करने के लिए प्रतिबद्ध हैं।
हमारी टीम अमेरिकी एआई सुरक्षा संस्थान के साथ एक समझौते पर काम कर रही है, जिसके तहत हम…
— सैम ऑल्टमैन (@sama) 1 अगस्त, 2024
क्वोन ने अपने पत्र में हाल ही में गठित सुरक्षा समिति का भी हवाला दिया, जो वर्तमान में ओपनएआई की प्रक्रियाओं और नीतियों की समीक्षा कर रही है।
हाल के महीनों में, OpenAI को सुरक्षा के प्रति अपनी प्रतिबद्धता और कर्मचारियों द्वारा इस विषय पर बोलने की क्षमता को लेकर कई विवादों का सामना करना पड़ा है। इसके सुरक्षा-संबंधी टीमों के कई प्रमुख सदस्यों, जिनमें पूर्व सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुत्सकेवर शामिल हैं, ने इस्तीफा दे दिया है, साथ ही कंपनी की टीम के एक अन्य नेता, जो दीर्घकालिक सुरक्षा जोखिमों का आकलन करने के लिए समर्पित हैं, जान लीके ने सार्वजनिक रूप से चिंता व्यक्त की कि कंपनी सुरक्षा पर उत्पाद विकास को प्राथमिकता दे रही है।
© 2024 ब्लूमबर्ग एल.पी.
(यह कहानी एनडीटीवी स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड फीड से स्वतः उत्पन्न होती है।)