Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza
Google के बिलकुल नए AI-संचालित सर्च टूल, AI ओवरव्यू को उपयोगकर्ताओं के प्रश्नों के गलत और कुछ हद तक विचित्र उत्तर देने के लिए आलोचना का सामना करना पड़ रहा है। हाल ही में रिपोर्ट की गई एक घटना में, एक उपयोगकर्ता ने पिज्जा पर पनीर न चिपकने के लिए Google का सहारा लिया। जबकि वे अपनी पाक समस्याओं के लिए एक व्यावहारिक समाधान की उम्मीद कर रहे होंगे, Google के AI ओवरव्यू फीचर ने एक बहुत ही बेतुका समाधान प्रस्तुत किया। हाल ही में X पर सामने आई पोस्ट के अनुसार, यह कोई अकेली घटना नहीं थी, जिसमें AI टूल ने अन्य उपयोगकर्ताओं के लिए भी विचित्र उत्तर सुझाए थे।
पनीर, पिज्जा और एआई मतिभ्रम
यह समस्या तब सामने आई जब एक उपयोगकर्ता ने Google पर लिखा, “पिज्जा पर पनीर नहीं चिपक रहा है”। पाक समस्या को संबोधित करते हुए, खोज इंजन के AI ओवरव्यू फीचर ने पनीर को चिपकाने के कुछ तरीके सुझाए, जैसे सॉस मिलाना और पिज्जा को ठंडा होने देना। हालाँकि, इनमें से एक उपाय वाकई अजीब निकला। साझा किए गए स्क्रीनशॉट के अनुसार, इसने उपयोगकर्ता को “सॉस को अधिक चिपचिपा बनाने के लिए उसमें ⅛ कप नॉन-टॉक्सिक ग्लू मिलाने” का सुझाव दिया।
गूगल एआई अवलोकन में पिज्जा पर पनीर चिपकाने के लिए गोंद जोड़ने का सुझाव दिया गया है, और पता चला है कि इसका स्रोत उपयोगकर्ता F*cksmith की 11 साल पुरानी Reddit टिप्पणी है 😂 pic.twitter.com/uDPAbsAKeO
— पीटर यांग (@petergyang) 23 मई, 2024
आगे की जांच के बाद, स्रोत कथित तौर पर पाया गया और यह 11 साल पहले की एक Reddit टिप्पणी थी, जो एक विशेषज्ञ पाक सलाह के बजाय एक मजाक लग रहा था। हालाँकि, Google की AI ओवरव्यू सुविधा, जो अभी भी नीचे “जेनरेटिव AI प्रायोगिक है” टैग रखती है, ने इसे मूल क्वेरी के लिए एक गंभीर सुझाव के रूप में प्रदान किया।
कुछ दिन पहले AI ओवरव्यूज़ का एक और गलत जवाब तब सामने आया जब एक यूजर ने कथित तौर पर गूगल से पूछा, “मुझे कितने पत्थर खाने चाहिए”। यूसी बर्कले के भूगर्भशास्त्रियों का हवाला देते हुए, टूल ने सुझाव दिया, “प्रतिदिन कम से कम एक पत्थर खाने की सलाह दी जाती है क्योंकि पत्थरों में खनिज और विटामिन होते हैं जो पाचन स्वास्थ्य के लिए महत्वपूर्ण हैं”।
झूठे जवाबों के पीछे का मुद्दा
हाल के वर्षों में इस तरह के मुद्दे नियमित रूप से सामने आते रहे हैं, खासकर जब से कृत्रिम बुद्धिमत्ता (एआई) में उछाल आया है, जिसके परिणामस्वरूप एआई भ्रम नामक एक नई समस्या सामने आई है। जबकि कंपनियाँ दावा करती हैं कि एआई चैटबॉट गलतियाँ कर सकते हैं, इन उपकरणों द्वारा तथ्यों को तोड़-मरोड़ कर पेश करने और तथ्यात्मक रूप से गलत और यहाँ तक कि विचित्र प्रतिक्रियाएँ देने के मामले बढ़ रहे हैं।
हालाँकि, गूगल अकेली ऐसी कंपनी नहीं है जिसके AI टूल ने गलत जवाब दिए हैं। OpenAI के ChatGPT, Microsoft के Copilot और Perplexity के AI चैटबॉट सभी कथित तौर पर AI भ्रम से पीड़ित हैं।
एक से ज़्यादा मामलों में, स्रोत को कई साल पहले की गई Reddit पोस्ट या टिप्पणी के रूप में खोजा गया है। AI टूल के पीछे की कंपनियाँ भी इस बात से वाकिफ़ हैं, अल्फाबेट के सीईओ सुंदर पिचाई ने द वर्ज से कहा, “ये ऐसी चीज़ें हैं जिनमें हमें लगातार बेहतर होते रहना है”।
जून 2023 में आईआईआईटी दिल्ली में एक कार्यक्रम के दौरान एआई मतिभ्रम के बारे में बात करते हुए, सैम ऑल्टमैन, [OpenAI](सीईओ और सह-संस्थापक ने कहा, “इस मॉडल को पूर्ण करने में हमें लगभग एक वर्ष का समय लगेगा। यह रचनात्मकता और सटीकता के बीच संतुलन है और हम समस्या को न्यूनतम करने का प्रयास कर रहे हैं। [At present,] मैं इस धरती पर किसी और की तुलना में ChatGPT से मिलने वाले उत्तरों पर सबसे कम भरोसा करता हूं।”