November 7, 2024
A.I

Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza

  • August 18, 2024
  • 1 min read
Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza

Google के बिलकुल नए AI-संचालित सर्च टूल, AI ओवरव्यू को उपयोगकर्ताओं के प्रश्नों के गलत और कुछ हद तक विचित्र उत्तर देने के लिए आलोचना का सामना करना पड़ रहा है। हाल ही में रिपोर्ट की गई एक घटना में, एक उपयोगकर्ता ने पिज्जा पर पनीर न चिपकने के लिए Google का सहारा लिया। जबकि वे अपनी पाक समस्याओं के लिए एक व्यावहारिक समाधान की उम्मीद कर रहे होंगे, Google के AI ओवरव्यू फीचर ने एक बहुत ही बेतुका समाधान प्रस्तुत किया। हाल ही में X पर सामने आई पोस्ट के अनुसार, यह कोई अकेली घटना नहीं थी, जिसमें AI टूल ने अन्य उपयोगकर्ताओं के लिए भी विचित्र उत्तर सुझाए थे।

पनीर, पिज्जा और एआई मतिभ्रम

यह समस्या तब सामने आई जब एक उपयोगकर्ता ने Google पर लिखा, “पिज्जा पर पनीर नहीं चिपक रहा है”। पाक समस्या को संबोधित करते हुए, खोज इंजन के AI ओवरव्यू फीचर ने पनीर को चिपकाने के कुछ तरीके सुझाए, जैसे सॉस मिलाना और पिज्जा को ठंडा होने देना। हालाँकि, इनमें से एक उपाय वाकई अजीब निकला। साझा किए गए स्क्रीनशॉट के अनुसार, इसने उपयोगकर्ता को “सॉस को अधिक चिपचिपा बनाने के लिए उसमें ⅛ कप नॉन-टॉक्सिक ग्लू मिलाने” का सुझाव दिया।

आगे की जांच के बाद, स्रोत कथित तौर पर पाया गया और यह 11 साल पहले की एक Reddit टिप्पणी थी, जो एक विशेषज्ञ पाक सलाह के बजाय एक मजाक लग रहा था। हालाँकि, Google की AI ओवरव्यू सुविधा, जो अभी भी नीचे “जेनरेटिव AI प्रायोगिक है” टैग रखती है, ने इसे मूल क्वेरी के लिए एक गंभीर सुझाव के रूप में प्रदान किया।

कुछ दिन पहले AI ओवरव्यूज़ का एक और गलत जवाब तब सामने आया जब एक यूजर ने कथित तौर पर गूगल से पूछा, “मुझे कितने पत्थर खाने चाहिए”। यूसी बर्कले के भूगर्भशास्त्रियों का हवाला देते हुए, टूल ने सुझाव दिया, “प्रतिदिन कम से कम एक पत्थर खाने की सलाह दी जाती है क्योंकि पत्थरों में खनिज और विटामिन होते हैं जो पाचन स्वास्थ्य के लिए महत्वपूर्ण हैं”।

झूठे जवाबों के पीछे का मुद्दा

हाल के वर्षों में इस तरह के मुद्दे नियमित रूप से सामने आते रहे हैं, खासकर जब से कृत्रिम बुद्धिमत्ता (एआई) में उछाल आया है, जिसके परिणामस्वरूप एआई भ्रम नामक एक नई समस्या सामने आई है। जबकि कंपनियाँ दावा करती हैं कि एआई चैटबॉट गलतियाँ कर सकते हैं, इन उपकरणों द्वारा तथ्यों को तोड़-मरोड़ कर पेश करने और तथ्यात्मक रूप से गलत और यहाँ तक कि विचित्र प्रतिक्रियाएँ देने के मामले बढ़ रहे हैं।

हालाँकि, गूगल अकेली ऐसी कंपनी नहीं है जिसके AI टूल ने गलत जवाब दिए हैं। OpenAI के ChatGPT, Microsoft के Copilot और Perplexity के AI चैटबॉट सभी कथित तौर पर AI भ्रम से पीड़ित हैं।

एक से ज़्यादा मामलों में, स्रोत को कई साल पहले की गई Reddit पोस्ट या टिप्पणी के रूप में खोजा गया है। AI टूल के पीछे की कंपनियाँ भी इस बात से वाकिफ़ हैं, अल्फाबेट के सीईओ सुंदर पिचाई ने द वर्ज से कहा, “ये ऐसी चीज़ें हैं जिनमें हमें लगातार बेहतर होते रहना है”।

जून 2023 में आईआईआईटी दिल्ली में एक कार्यक्रम के दौरान एआई मतिभ्रम के बारे में बात करते हुए, सैम ऑल्टमैन, [OpenAI](सीईओ और सह-संस्थापक ने कहा, “इस मॉडल को पूर्ण करने में हमें लगभग एक वर्ष का समय लगेगा। यह रचनात्मकता और सटीकता के बीच संतुलन है और हम समस्या को न्यूनतम करने का प्रयास कर रहे हैं। [At present,] मैं इस धरती पर किसी और की तुलना में ChatGPT से मिलने वाले उत्तरों पर सबसे कम भरोसा करता हूं।”


संबद्ध लिंक स्वचालित रूप से उत्पन्न हो सकते हैं – विवरण के लिए हमारा नैतिकता वक्तव्य देखें।



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *