November 7, 2024
A.I

OpenAI, Google DeepMind Employees Warn of AI Risks, Demand Better Whistleblower Protection Policies

  • August 18, 2024
  • 1 min read
OpenAI, Google DeepMind Employees Warn of AI Risks, Demand Better Whistleblower Protection Policies

ओपनएआई और गूगल डीपमाइंड आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम और क्षमताओं के निर्माण में सबसे आगे रहने वाली शीर्ष तकनीकी कंपनियों में से हैं। हालाँकि, इन संगठनों के कई मौजूदा और पूर्व कर्मचारियों ने अब एक खुले पत्र पर हस्ताक्षर किए हैं, जिसमें दावा किया गया है कि इन प्रणालियों के निर्माण में बहुत कम या कोई निगरानी नहीं है और इस तकनीक से उत्पन्न होने वाले प्रमुख जोखिमों पर पर्याप्त ध्यान नहीं दिया जा रहा है। खुले पत्र को एआई के तीन ‘गॉडफादर’ में से दो, जेफ्री हिंटन और योशुआ बेंगियो द्वारा समर्थन दिया गया है और अपने नियोक्ताओं से बेहतर व्हिसलब्लोअर सुरक्षा नीतियों की मांग की गई है।

ओपनएआई, गूगल डीपमाइंड के कर्मचारियों ने एआई के बारे में चेतावनी देने के अधिकार की मांग की

खुले पत्र में कहा गया है कि इसे प्रमुख एआई कंपनियों के वर्तमान और पूर्व कर्मचारियों द्वारा लिखा गया था, जो मानते हैं कि एआई मानवता को अभूतपूर्व लाभ पहुँचाने की क्षमता रखता है। यह प्रौद्योगिकी द्वारा उत्पन्न जोखिमों की ओर भी इशारा करता है जिसमें सामाजिक असमानताओं को मजबूत करना, गलत सूचना और हेरफेर फैलाना और यहाँ तक कि एआई सिस्टम पर नियंत्रण खोना शामिल है जो मानव विलुप्त होने का कारण बन सकता है।

खुले पत्र में इस बात पर प्रकाश डाला गया है कि इन तकनीकी दिग्गजों द्वारा लागू की गई स्व-शासन संरचना इन जोखिमों की जांच सुनिश्चित करने में अप्रभावी है। इसने यह भी दावा किया कि “मजबूत वित्तीय प्रोत्साहन” कंपनियों को एआई सिस्टम से होने वाले संभावित खतरे को नजरअंदाज करने के लिए और अधिक प्रोत्साहित करते हैं।

यह दावा करते हुए कि एआई कंपनियाँ पहले से ही एआई की क्षमताओं, सीमाओं और विभिन्न प्रकार के नुकसान के जोखिम स्तरों से अवगत हैं, खुले पत्र में सुधारात्मक उपाय करने के उनके इरादे पर सवाल उठाया गया है। “वर्तमान में उनके पास इस जानकारी को सरकारों के साथ साझा करने के लिए केवल कमजोर दायित्व हैं, और नागरिक समाज के साथ कोई भी नहीं। हमें नहीं लगता कि उन सभी पर इसे स्वेच्छा से साझा करने के लिए भरोसा किया जा सकता है, “यह कहता है।

खुले पत्र में अपने नियोक्ताओं से चार मांगें की गई हैं। सबसे पहले, कर्मचारी चाहते हैं कि कंपनियाँ किसी ऐसे समझौते में प्रवेश न करें या उसे लागू न करें जो जोखिम-संबंधी चिंताओं के लिए उनकी आलोचना को प्रतिबंधित करता हो। दूसरा, उन्होंने मौजूदा और पूर्व कर्मचारियों के लिए कंपनी के बोर्ड, नियामकों और किसी उचित स्वतंत्र संगठन के समक्ष जोखिम-संबंधी चिंताओं को उठाने के लिए सत्यापन योग्य गुमनाम प्रक्रिया की मांग की है।

कर्मचारियों ने संगठनों से खुली आलोचना की संस्कृति विकसित करने का भी आग्रह किया है। अंत में, खुले पत्र में इस बात पर प्रकाश डाला गया है कि नियोक्ताओं को मौजूदा और पूर्व कर्मचारियों के खिलाफ प्रतिशोध नहीं लेना चाहिए जो अन्य प्रक्रियाओं के विफल होने के बाद जोखिम से संबंधित गोपनीय जानकारी सार्वजनिक रूप से साझा करते हैं।

ओपनएआई और गूगल डीपमाइंड के कुल 13 पूर्व और वर्तमान कर्मचारियों ने इस पत्र पर हस्ताक्षर किए हैं। एआई के दो ‘गॉडफादर’ के अलावा ब्रिटिश कंप्यूटर वैज्ञानिक स्टुअर्ट रसेल ने भी इस कदम का समर्थन किया है।

ओपनएआई के पूर्व कर्मचारी ने एआई जोखिमों पर बात की

ओपनएआई के पूर्व कर्मचारियों में से एक, जिन्होंने खुले पत्र पर हस्ताक्षर किए, डैनियल कोकोटाजलो ने भी एक्स (जिसे पहले ट्विटर के नाम से जाना जाता था) पर कई पोस्ट किए, जिसमें कंपनी में अपने अनुभव और एआई के जोखिमों पर प्रकाश डाला गया। उन्होंने दावा किया कि जब उन्होंने कंपनी से इस्तीफा दिया, तो उन्हें कंपनी के बारे में कुछ भी आलोचनात्मक कहने से रोकने के लिए एक गैर-अपमानजनक खंड पर हस्ताक्षर करने के लिए कहा गया था। उन्होंने यह भी दावा किया कि कंपनी ने समझौते पर हस्ताक्षर करने से इनकार करने पर कोकोटाजलो को उनकी निहित इक्विटी छीनने की धमकी दी थी।

कोकोटाजलो ने दावा किया कि एआई सिस्टम के न्यूरल नेट उन्हें दिए जा रहे बड़े डेटासेट से तेज़ी से बढ़ रहे हैं। इसके अलावा, उन्होंने कहा कि जोखिमों की निगरानी के लिए कोई पर्याप्त उपाय नहीं हैं।

उन्होंने कहा, “हम अभी भी इस बारे में बहुत कुछ नहीं समझ पाए हैं कि ये प्रणालियां किस प्रकार काम करती हैं और क्या ये मानव हितों के अनुरूप बनी रहेंगी, जबकि ये अधिक स्मार्ट होती जाएंगी और संभवतः सभी क्षेत्रों में मानव स्तर की बुद्धिमत्ता को पार कर जाएंगी।”

उल्लेखनीय रूप से, OpenAI मॉडल स्पेक का निर्माण कर रहा है, एक दस्तावेज़ जिसके माध्यम से इसका उद्देश्य नैतिक AI तकनीक के निर्माण में कंपनी को बेहतर मार्गदर्शन देना है। हाल ही में, इसने एक सुरक्षा और सुरक्षा समिति भी बनाई। कोकोटाजलो ने एक पोस्ट में इन वादों की सराहना की।

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *