OpenAI Says It’s ‘Dedicated’ to Making Sure Its AI Tools Don’t Cause Harm in Letter to US Lawmakers
ओपनएआई ने अमेरिकी सांसदों के सवालों का जवाब देते हुए कहा कि वह यह सुनिश्चित करने के लिए समर्पित है कि उसके शक्तिशाली एआई उपकरण नुकसान न पहुंचाएं और कर्मचारियों के पास सुरक्षा प्रथाओं के बारे में चिंताएं बढ़ाने के तरीके हों।
हवाई के एक डेमोक्रेट सीनेटर ब्रायन शेट्ज़ सहित पांच सीनेटरों द्वारा मुख्य कार्यकारी अधिकारी सैम अल्टमैन को संबोधित एक पत्र में ओपनएआई की नीतियों के बारे में सवाल उठाए जाने के बाद स्टार्टअप ने सुरक्षा के प्रति अपनी प्रतिबद्धता के बारे में सांसदों को आश्वस्त करने की मांग की।
मुख्य रणनीति अधिकारी जेसन क्वोन ने बुधवार को सांसदों को लिखे एक पत्र में कहा, “हमारा मिशन यह सुनिश्चित करना है कि कृत्रिम बुद्धिमत्ता से पूरी मानवता को लाभ हो और हम अपनी प्रक्रिया के हर चरण में कठोर सुरक्षा प्रोटोकॉल लागू करने के लिए समर्पित हैं।”
विशेष रूप से, ओपनएआई ने कहा कि वह कई वर्षों में सुरक्षा-संबंधी अनुसंधान के लिए अपने कंप्यूटिंग संसाधनों का 20 प्रतिशत आवंटित करने के अपने वादे को कायम रखेगा। कंपनी ने अपने पत्र में यह भी वादा किया कि वह आपसी गैर-असमानता समझौते के विशिष्ट मामलों को छोड़कर, वर्तमान और पूर्व कर्मचारियों के लिए गैर-असमानता समझौते को लागू नहीं करेगी। कंपनी छोड़ने वाले कर्मचारियों पर ओपनएआई की पूर्व सीमाएं असामान्य रूप से प्रतिबंधात्मक होने के कारण जांच के दायरे में आ गई हैं। OpenAI ने तब से कहा है कि उसने अपनी नीतियां बदल दी हैं।
ऑल्टमैन ने बाद में सोशल मीडिया पर अपनी रणनीति के बारे में विस्तार से बताया।
उन्होंने एक्स पर लिखा, “हमारी टीम यूएस एआई सेफ्टी इंस्टीट्यूट के साथ एक समझौते पर काम कर रही है, जहां हम अपने अगले फाउंडेशन मॉडल तक शीघ्र पहुंच प्रदान करेंगे ताकि हम एआई मूल्यांकन के विज्ञान को आगे बढ़ाने के लिए मिलकर काम कर सकें।”
openai पर सुरक्षा के बारे में कुछ त्वरित अपडेट:
जैसा कि हमने पिछले जुलाई में कहा था, हम पूरी कंपनी में सुरक्षा प्रयासों के लिए कम से कम 20% कंप्यूटिंग संसाधन आवंटित करने के लिए प्रतिबद्ध हैं।
हमारी टीम यूएस एआई सेफ्टी इंस्टीट्यूट के साथ एक समझौते पर काम कर रही है जहां हम प्रदान करेंगे…
– सैम ऑल्टमैन (@sama) 1 अगस्त 2024
क्वोन ने अपने पत्र में हाल ही में एक सुरक्षा और सुरक्षा समिति के निर्माण का भी हवाला दिया, जो वर्तमान में ओपनएआई की प्रक्रियाओं और नीतियों की समीक्षा कर रही है।
हाल के महीनों में, OpenAI को कर्मचारियों की सुरक्षा और विषय पर बोलने की क्षमता के प्रति अपनी प्रतिबद्धता को लेकर कई विवादों का सामना करना पड़ा है। पूर्व सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुतस्केवर सहित इसकी सुरक्षा-संबंधित टीमों के कई प्रमुख सदस्यों ने इस्तीफा दे दिया, साथ ही दीर्घकालिक सुरक्षा जोखिमों का आकलन करने के लिए समर्पित कंपनी की टीम के एक अन्य नेता, जान लेइक, जिन्होंने सार्वजनिक रूप से कंपनी के बारे में चिंताओं को साझा किया। सुरक्षा से अधिक उत्पाद विकास को प्राथमिकता दे रहा था।
© 2024 ब्लूमबर्ग एल.पी
(यह कहानी एनडीटीवी स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड फीड से ऑटो-जेनरेट की गई है।)