A.I

Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza

Google के बिलकुल नए AI-संचालित सर्च टूल, AI ओवरव्यू को उपयोगकर्ताओं के प्रश्नों के गलत और कुछ हद तक विचित्र उत्तर देने के लिए आलोचना का सामना करना पड़ रहा है। हाल ही में रिपोर्ट की गई एक घटना में, एक उपयोगकर्ता ने पिज्जा पर पनीर न चिपकने के लिए Google का सहारा लिया। जबकि वे अपनी पाक समस्याओं के लिए एक व्यावहारिक समाधान की उम्मीद कर रहे होंगे, Google के AI ओवरव्यू फीचर ने एक बहुत ही बेतुका समाधान प्रस्तुत किया। हाल ही में X पर सामने आई पोस्ट के अनुसार, यह कोई अकेली घटना नहीं थी, जिसमें AI टूल ने अन्य उपयोगकर्ताओं के लिए भी विचित्र उत्तर सुझाए थे।

पनीर, पिज्जा और एआई मतिभ्रम

यह समस्या तब सामने आई जब एक उपयोगकर्ता ने Google पर लिखा, “पिज्जा पर पनीर नहीं चिपक रहा है”। पाक समस्या को संबोधित करते हुए, खोज इंजन के AI ओवरव्यू फीचर ने पनीर को चिपकाने के कुछ तरीके सुझाए, जैसे सॉस मिलाना और पिज्जा को ठंडा होने देना। हालाँकि, इनमें से एक उपाय वाकई अजीब निकला। साझा किए गए स्क्रीनशॉट के अनुसार, इसने उपयोगकर्ता को “सॉस को अधिक चिपचिपा बनाने के लिए उसमें ⅛ कप नॉन-टॉक्सिक ग्लू मिलाने” का सुझाव दिया।

आगे की जांच के बाद, स्रोत कथित तौर पर पाया गया और यह 11 साल पहले की एक Reddit टिप्पणी थी, जो एक विशेषज्ञ पाक सलाह के बजाय एक मजाक लग रहा था। हालाँकि, Google की AI ओवरव्यू सुविधा, जो अभी भी नीचे “जेनरेटिव AI प्रायोगिक है” टैग रखती है, ने इसे मूल क्वेरी के लिए एक गंभीर सुझाव के रूप में प्रदान किया।

कुछ दिन पहले AI ओवरव्यूज़ का एक और गलत जवाब तब सामने आया जब एक यूजर ने कथित तौर पर गूगल से पूछा, “मुझे कितने पत्थर खाने चाहिए”। यूसी बर्कले के भूगर्भशास्त्रियों का हवाला देते हुए, टूल ने सुझाव दिया, “प्रतिदिन कम से कम एक पत्थर खाने की सलाह दी जाती है क्योंकि पत्थरों में खनिज और विटामिन होते हैं जो पाचन स्वास्थ्य के लिए महत्वपूर्ण हैं”।

झूठे जवाबों के पीछे का मुद्दा

हाल के वर्षों में इस तरह के मुद्दे नियमित रूप से सामने आते रहे हैं, खासकर जब से कृत्रिम बुद्धिमत्ता (एआई) में उछाल आया है, जिसके परिणामस्वरूप एआई भ्रम नामक एक नई समस्या सामने आई है। जबकि कंपनियाँ दावा करती हैं कि एआई चैटबॉट गलतियाँ कर सकते हैं, इन उपकरणों द्वारा तथ्यों को तोड़-मरोड़ कर पेश करने और तथ्यात्मक रूप से गलत और यहाँ तक कि विचित्र प्रतिक्रियाएँ देने के मामले बढ़ रहे हैं।

हालाँकि, गूगल अकेली ऐसी कंपनी नहीं है जिसके AI टूल ने गलत जवाब दिए हैं। OpenAI के ChatGPT, Microsoft के Copilot और Perplexity के AI चैटबॉट सभी कथित तौर पर AI भ्रम से पीड़ित हैं।

एक से ज़्यादा मामलों में, स्रोत को कई साल पहले की गई Reddit पोस्ट या टिप्पणी के रूप में खोजा गया है। AI टूल के पीछे की कंपनियाँ भी इस बात से वाकिफ़ हैं, अल्फाबेट के सीईओ सुंदर पिचाई ने द वर्ज से कहा, “ये ऐसी चीज़ें हैं जिनमें हमें लगातार बेहतर होते रहना है”।

जून 2023 में आईआईआईटी दिल्ली में एक कार्यक्रम के दौरान एआई मतिभ्रम के बारे में बात करते हुए, सैम ऑल्टमैन, [OpenAI](सीईओ और सह-संस्थापक ने कहा, “इस मॉडल को पूर्ण करने में हमें लगभग एक वर्ष का समय लगेगा। यह रचनात्मकता और सटीकता के बीच संतुलन है और हम समस्या को न्यूनतम करने का प्रयास कर रहे हैं। [At present,] मैं इस धरती पर किसी और की तुलना में ChatGPT से मिलने वाले उत्तरों पर सबसे कम भरोसा करता हूं।”


संबद्ध लिंक स्वचालित रूप से उत्पन्न हो सकते हैं – विवरण के लिए हमारा नैतिकता वक्तव्य देखें।



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button