November 24, 2024
A.I

ChatGPT Live Video Feature’s Evidence Reportedly Spotted, Hints at Imminent Beta Release

  • November 21, 2024
  • 1 min read
ChatGPT Live Video Feature’s Evidence Reportedly Spotted, Hints at Imminent Beta Release

चैटजीपीटी जल्द ही आपके स्मार्टफोन के कैमरे को देखने के बाद प्रश्नों का उत्तर देने की क्षमता हासिल कर सकता है। एक रिपोर्ट के अनुसार, लाइव वीडियो फीचर के साक्ष्य, जो ओपनएआई के एडवांस्ड वॉयस मोड का हिस्सा है, एंड्रॉइड बीटा ऐप के लिए नवीनतम चैटजीपीटी में देखा गया था। इस क्षमता को पहली बार मई में एआई फर्म के स्प्रिंग अपडेट इवेंट के दौरान प्रदर्शित किया गया था। यह चैटबॉट को स्मार्टफोन के कैमरे तक पहुंचने और वास्तविक समय में उपयोगकर्ता के परिवेश के बारे में प्रश्नों का उत्तर देने की अनुमति देता है। जबकि भावनात्मक आवाज़ क्षमता कुछ महीने पहले जारी की गई थी, कंपनी ने अब तक लाइव वीडियो सुविधा के लिए संभावित रिलीज़ तिथि की घोषणा नहीं की है।

चैटजीपीटी लाइव वीडियो फीचर कथित तौर पर देखा गया

एंड्रॉइड अथॉरिटी की एक रिपोर्ट में लाइव वीडियो फीचर के साक्ष्य का विवरण दिया गया है, जो ऐप की एंड्रॉइड पैकेज किट (एपीके) फाड़ने की प्रक्रिया के दौरान पाया गया था। क्षमता से संबंधित कोड के कई तार एंड्रॉइड बीटा संस्करण 1.2024.317 के लिए चैटजीपीटी में देखे गए थे।

विशेष रूप से, लाइव वीडियो सुविधा चैटजीपीटी के उन्नत वॉयस मोड का हिस्सा है, और यह एआई चैटबॉट को प्रश्नों का उत्तर देने और वास्तविक समय में उपयोगकर्ता के साथ बातचीत करने के लिए वास्तविक समय में वीडियो डेटा संसाधित करने देता है। इसके साथ, चैटजीपीटी उपयोगकर्ता के फ्रिज को देख सकता है और सामग्री को स्कैन कर सकता है और एक नुस्खा सुझा सकता है। यह उपयोगकर्ता के भावों का विश्लेषण भी कर सकता है और उनके मूड को जानने का प्रयास कर सकता है। इसे भावनात्मक आवाज क्षमता के साथ जोड़ा गया था जो एआई को अधिक प्राकृतिक और अभिव्यंजक तरीके से बोलने की सुविधा देता है।

रिपोर्ट के अनुसार, फीचर से संबंधित कोड के कई तार देखे गए। ऐसी ही एक स्ट्रिंग में कहा गया है, “चैटजीपीटी को देखने और अपने आस-पास के बारे में बातचीत करने के लिए कैमरा आइकन पर टैप करें,” जो कि वही विवरण है जो ओपनएआई ने डेमो के दौरान फीचर के लिए दिया था।

अन्य स्ट्रिंग्स में कथित तौर पर “लाइव कैमरा” और “बीटा” जैसे वाक्यांश शामिल हैं, जो इस बात पर प्रकाश डालते हैं कि यह सुविधा वास्तविक समय में काम कर सकती है और अंडर-डेवलपमेंट सुविधा संभवतः पहले बीटा उपयोगकर्ताओं के लिए जारी की जाएगी।

कोड की एक अन्य श्रृंखला में उपयोगकर्ताओं के लिए लाइव नेविगेशन या निर्णयों के लिए लाइव वीडियो सुविधा का उपयोग न करने की सलाह भी शामिल है जो उपयोगकर्ताओं के स्वास्थ्य या सुरक्षा को प्रभावित कर सकती है।

हालाँकि इन स्ट्रिंग्स का अस्तित्व फीचर के जारी होने की ओर इशारा नहीं करता है, आठ महीने की देरी के बाद, यह पहली बार निर्णायक सबूत मिला है कि कंपनी इस फीचर पर काम कर रही है। इससे पहले, OpenAI ने दावा किया था कि उपयोगकर्ताओं की सुरक्षा के लिए इस सुविधा में देरी की जा रही है।

विशेष रूप से, Google DeepMind ने मई में Google I/O इवेंट में भी इसी तरह का AI विज़न फीचर प्रदर्शित किया था। प्रोजेक्ट एस्ट्रा का हिस्सा, यह सुविधा जेमिनी को डिवाइस के कैमरे का उपयोग करके उपयोगकर्ता के परिवेश को देखने की सुविधा देती है।

डेमो में, Google का AI टूल वस्तुओं की सही पहचान कर सकता है, वर्तमान मौसम की स्थिति का अनुमान लगा सकता है, और यहां तक ​​कि लाइव वीडियो सत्र में पहले देखी गई वस्तुओं को भी याद रख सकता है। अब तक, माउंटेन व्यू-आधारित तकनीकी दिग्गज ने यह भी नहीं बताया है कि यह सुविधा कब पेश की जाएगी।

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *