ChatGPT First-Person Bias and Stereotypes Tested in a New OpenAI Study
चैटजीपीटी, अन्य कृत्रिम बुद्धिमत्ता (एआई) चैटबॉट्स की तरह, सामग्री तैयार करते समय पूर्वाग्रह और हानिकारक रूढ़िवादिता पेश करने की क्षमता रखता है। अधिकांश भाग के लिए, कंपनियों ने तीसरे व्यक्ति के पूर्वाग्रहों को खत्म करने पर ध्यान केंद्रित किया है जहां दूसरों के बारे में जानकारी मांगी जाती है। हालाँकि, OpenAI द्वारा प्रकाशित एक नए अध्ययन में, कंपनी ने अपने AI मॉडल के प्रथम-व्यक्ति पूर्वाग्रहों का परीक्षण किया, जहाँ AI ने निर्णय लिया कि उपयोगकर्ता की जातीयता, लिंग और नस्ल के आधार पर क्या उत्पन्न करना है। अध्ययन के आधार पर, एआई फर्म का दावा है कि चैटजीपीटी में प्रथम-व्यक्ति पूर्वाग्रह पैदा करने की प्रवृत्ति बहुत कम है।
ओपनएआई ने चैटजीपीटी के प्रथम-व्यक्ति पूर्वाग्रहों पर अध्ययन प्रकाशित किया
प्रथम-व्यक्ति पूर्वाग्रह तीसरे-व्यक्ति की गलत सूचना से भिन्न होते हैं। उदाहरण के लिए, यदि कोई उपयोगकर्ता किसी राजनीतिक व्यक्ति या सेलिब्रिटी के बारे में पूछता है और एआई मॉडल व्यक्ति के लिंग या जातीयता के आधार पर रूढ़िबद्ध पाठ उत्पन्न करता है, तो इसे तीसरे व्यक्ति का पूर्वाग्रह कहा जा सकता है।
दूसरी ओर, यदि कोई उपयोगकर्ता एआई को अपना नाम बताता है और चैटबॉट नस्लीय या लिंग-आधारित झुकाव के आधार पर उपयोगकर्ता को प्रतिक्रिया देने के तरीके को बदल देता है, तो यह प्रथम-व्यक्ति पूर्वाग्रह होगा। उदाहरण के लिए, यदि कोई महिला एआई से यूट्यूब चैनल के विचार के बारे में पूछती है और खाना पकाने-आधारित या मेकअप-आधारित चैनल की सिफारिश करती है, तो इसे पहले व्यक्ति का पूर्वाग्रह माना जा सकता है।
एक ब्लॉग पोस्ट में, OpenAI ने अपने अध्ययन का विवरण दिया और निष्कर्षों पर प्रकाश डाला। एआई फर्म ने यह अध्ययन करने के लिए चैटजीपीटी-4ओ और चैटजीपीटी 3.5 संस्करणों का उपयोग किया कि क्या चैटबॉट नामों और उन्हें प्रदान की गई अतिरिक्त जानकारी के आधार पर पक्षपाती सामग्री उत्पन्न करते हैं। कंपनी ने दावा किया कि लाखों वास्तविक वार्तालापों में एआई मॉडल की प्रतिक्रियाओं का विश्लेषण ऐसे किसी भी पैटर्न को खोजने के लिए किया गया था जो इस तरह के रुझानों को प्रदर्शित करता हो।
बड़े डेटासेट को तब एक भाषा मॉडल अनुसंधान सहायक (एलएमआरए) के साथ साझा किया गया था, जो एक अनुकूलित एआई मॉडल है जिसे प्रथम-व्यक्ति रूढ़िवादिता और पूर्वाग्रहों के साथ-साथ मानव मूल्यांकनकर्ताओं के पैटर्न का पता लगाने के लिए डिज़ाइन किया गया है। समेकित परिणाम इस आधार पर बनाया गया था कि एलएमआरए मानव मूल्यांकनकर्ताओं के निष्कर्षों से कितनी निकटता से सहमत हो सकता है।
ओपनएआई ने दावा किया कि अध्ययन में पाया गया कि नए एआई मॉडल में लिंग, नस्ल या जातीयता से जुड़े पूर्वाग्रह कम से कम 0.1 प्रतिशत थे, जबकि कुछ डोमेन में पुराने मॉडल के लिए पूर्वाग्रह लगभग 1 प्रतिशत थे।
एआई फर्म ने अध्ययन की सीमाएं भी सूचीबद्ध कीं, जिसमें कहा गया कि यह मुख्य रूप से अमेरिका में पाए जाने वाले सामान्य नामों के आधार पर अंग्रेजी भाषा की बातचीत और द्विआधारी लिंग संघों पर केंद्रित है। अध्ययन में मुख्य रूप से काले, एशियाई, हिस्पैनिक और श्वेत नस्लों और जातीयताओं पर भी ध्यान केंद्रित किया गया। OpenAI ने स्वीकार किया कि अन्य जनसांख्यिकी, भाषाओं और सांस्कृतिक संदर्भों के साथ और अधिक काम करने की आवश्यकता है।