OpenAI, Google DeepMind Employees Warn of AI Risks, Demand Better Whistleblower Protection Policies
OpenAI और Google DeepMind कृत्रिम बुद्धिमत्ता (AI) सिस्टम और क्षमताओं के निर्माण में सबसे आगे रहने वाली शीर्ष तकनीकी कंपनियों में से हैं। हालाँकि, इन संगठनों के कई वर्तमान और पूर्व कर्मचारियों ने अब एक खुले पत्र पर हस्ताक्षर किए हैं जिसमें दावा किया गया है कि इन प्रणालियों के निर्माण में बहुत कम या कोई निगरानी नहीं है और इस तकनीक से उत्पन्न होने वाले प्रमुख जोखिमों पर पर्याप्त ध्यान नहीं दिया जा रहा है। खुले पत्र को एआई के तीन ‘गॉडफादर’ में से दो जेफ्री हिंटन और योशुआ बेंगियो ने समर्थन दिया है और अपने नियोक्ताओं से बेहतर व्हिसलब्लोअर सुरक्षा नीतियों की मांग की है।
OpenAI, Google DeepMind कर्मचारी AI के बारे में चेतावनी देने का अधिकार मांगते हैं
खुले पत्र में कहा गया है कि यह प्रमुख एआई कंपनियों के वर्तमान और पूर्व कर्मचारियों द्वारा लिखा गया था जो मानवता को अभूतपूर्व लाभ पहुंचाने के लिए एआई की क्षमता में विश्वास करते हैं। यह प्रौद्योगिकी द्वारा उत्पन्न जोखिमों की ओर भी इशारा करता है जिसमें सामाजिक असमानताओं को मजबूत करना, गलत सूचना फैलाना और हेरफेर करना और यहां तक कि एआई सिस्टम पर नियंत्रण खोना शामिल है जो मानव विलुप्त होने का कारण बन सकता है।
खुला पत्र इस बात पर प्रकाश डालता है कि इन तकनीकी दिग्गजों द्वारा कार्यान्वित स्वशासन संरचना इन जोखिमों की जांच सुनिश्चित करने में अप्रभावी है। इसने यह भी दावा किया कि “मजबूत वित्तीय प्रोत्साहन” कंपनियों को एआई सिस्टम के कारण होने वाले संभावित खतरे को नजरअंदाज करने के लिए प्रोत्साहित करता है।
यह दावा करते हुए कि एआई कंपनियां पहले से ही एआई की क्षमताओं, सीमाओं और विभिन्न प्रकार के नुकसान के जोखिम स्तरों से अवगत हैं, खुला पत्र सुधारात्मक उपाय करने के उनके इरादे पर सवाल उठाता है। “फिलहाल उनके पास इस जानकारी में से कुछ को सरकारों के साथ साझा करने का केवल कमजोर दायित्व है, और नागरिक समाज के साथ कोई भी नहीं। हमें नहीं लगता कि स्वेच्छा से इसे साझा करने के लिए उन सभी पर भरोसा किया जा सकता है,” इसमें कहा गया है।
खुले पत्र में अपने नियोक्ताओं से चार मांगें की गई हैं। सबसे पहले, कर्मचारी चाहते हैं कि कंपनियां ऐसा कोई समझौता न करें या लागू न करें जो जोखिम-संबंधी चिंताओं के लिए उनकी आलोचना को प्रतिबंधित करता हो। दूसरा, उन्होंने कंपनी के बोर्ड, नियामकों और एक उपयुक्त स्वतंत्र संगठन के सामने जोखिम संबंधी चिंताओं को उठाने के लिए वर्तमान और पूर्व कर्मचारियों के लिए एक सत्यापित गुमनाम प्रक्रिया की मांग की है।
कर्मचारी संगठनों से खुली आलोचना की संस्कृति विकसित करने का भी आग्रह करते हैं। अंत में, खुला पत्र इस बात पर प्रकाश डालता है कि नियोक्ताओं को मौजूदा और पूर्व कर्मचारियों के खिलाफ जवाबी कार्रवाई नहीं करनी चाहिए जो अन्य प्रक्रियाओं के विफल होने के बाद जोखिम से संबंधित गोपनीय जानकारी सार्वजनिक रूप से साझा करते हैं।
OpenAI और Google DeepMind के कुल 13 पूर्व और वर्तमान कर्मचारियों ने पत्र पर हस्ताक्षर किए हैं। एआई के दो ‘गॉडफादर’ के अलावा ब्रिटिश कंप्यूटर वैज्ञानिक स्टुअर्ट रसेल ने भी इस कदम का समर्थन किया है।
पूर्व ओपनएआई कर्मचारी एआई जोखिमों पर बोलते हैं
ओपनएआई के पूर्व कर्मचारियों में से एक, जिन्होंने खुले पत्र पर हस्ताक्षर किए, डैनियल कोकोटाज्लो ने भी एक्स (जिसे पहले ट्विटर के नाम से जाना जाता था) पर पोस्ट की एक श्रृंखला बनाई, जिसमें कंपनी में उनके अनुभव और एआई के जोखिमों पर प्रकाश डाला गया। उन्होंने दावा किया कि जब उन्होंने कंपनी से इस्तीफा दिया, तो उन्हें कंपनी के बारे में कुछ भी आलोचनात्मक कहने से रोकने के लिए एक गैर-अपमानजनक खंड पर हस्ताक्षर करने के लिए कहा गया था। उन्होंने यह भी दावा किया कि कंपनी ने समझौते पर हस्ताक्षर करने से इनकार करने पर कोकोटाजलो को उसकी निहित इक्विटी छीनने की धमकी दी थी।
कोकोटाजलो ने दावा किया कि एआई सिस्टम के तंत्रिका जाल उन्हें खिलाए जा रहे बड़े डेटासेट से तेजी से बढ़ रहे हैं। इसके अलावा, उन्होंने कहा कि जोखिमों की निगरानी के लिए कोई पर्याप्त उपाय नहीं थे।
उन्होंने कहा, “हमें इस बारे में बहुत कुछ समझ में नहीं आता है कि ये सिस्टम कैसे काम करते हैं और क्या वे मानवीय हितों से जुड़े रहेंगे क्योंकि वे अधिक स्मार्ट हो जाएंगे और संभवतः सभी क्षेत्रों में मानव-स्तर की बुद्धिमत्ता से आगे निकल जाएंगे।”
विशेष रूप से, OpenAI मॉडल स्पेक का निर्माण कर रहा है, एक दस्तावेज़ जिसके माध्यम से इसका उद्देश्य नैतिक AI तकनीक के निर्माण में कंपनी का बेहतर मार्गदर्शन करना है। हाल ही में, इसने एक सुरक्षा और सुरक्षा समिति भी बनाई। कोकोटाज्लो ने एक पोस्ट में इन वादों की सराहना की।