November 7, 2024
A.I

Meta Releases ‘Segment Anything Model 2’ With AI-Powered Object Identification in Images and Videos

  • August 18, 2024
  • 1 min read
Meta Releases ‘Segment Anything Model 2’ With AI-Powered Object Identification in Images and Videos

मेटा ने सोमवार को एक नया आर्टिफिशियल इंटेलिजेंस (AI) मॉडल जारी किया जो जटिल कंप्यूटर विज़न कार्य कर सकता है। इसे सेगमेंट एनीथिंग मॉडल 2 (SAM 2) नाम दिया गया है, यह अपने पूर्ववर्ती मॉडल का अनुसरण करता है जिसे पिछले साल लॉन्च किया गया था और इसे Instagram के बैकड्रॉप और कटआउट टूल में शामिल किया गया था। मॉडल का उत्तराधिकारी अब उन्नत क्षमताओं के साथ आता है और कंपनी ने कहा कि यह वीडियो पर भी सेगमेंट पहचान और ट्रैकिंग कर सकता है। मेटा के अधिकांश बड़े भाषा मॉडल (LLM) की तरह, SAM 2 भी एक ओपन-सोर्स AI मॉडल है।

न्यूज़रूम पोस्ट में, मेटा ने नए AI मॉडल की घोषणा की जो मुख्य रूप से वीडियो पर सेगमेंट विश्लेषण पर ध्यान केंद्रित करता है, जबकि इसकी छवि विभाजन क्षमताओं में सुधार करता है। अपने पूर्ववर्ती की उपलब्धियों पर प्रकाश डालते हुए, मेटा ने कहा कि AI मॉडल का उपयोग इंस्टाग्राम के बैकड्रॉप और कटआउट सुविधाओं में किया गया था, जबकि समुद्री वैज्ञानिकों ने इसका उपयोग “सोनार छवियों को विभाजित करने और प्रवाल भित्तियों का विश्लेषण करने, आपदा राहत के लिए उपग्रह इमेजरी विश्लेषण और चिकित्सा क्षेत्र में, सेलुलर छवियों को विभाजित करने और त्वचा कैंसर का पता लगाने में सहायता करने के लिए किया था”।

SAM 2 किसी छवि और वीडियो में ऑब्जेक्ट सेगमेंटेशन करने में सक्षम है और साथ ही वास्तविक समय में वीडियो के विभिन्न फ़्रेमों में इसे ट्रैक भी कर सकता है। AI उन परिदृश्यों में भी ऑब्जेक्ट को ट्रैक और सेगमेंट कर सकता है जहाँ ऑब्जेक्ट तेज़ी से चलते हैं, दिखने में बदलते हैं, या अन्य ऑब्जेक्ट या पूरी तरह से अलग दृश्य द्वारा छिपे होते हैं।

प्रॉम्प्ट-आधारित विज़ुअल सेगमेंटेशन के लिए आधार मॉडल एक सरल ट्रांसफ़ॉर्मर आर्किटेक्चर पर बनाया गया है। इसमें एक स्ट्रीमिंग मेमोरी है जो इसे वास्तविक समय में वीडियो को प्रोसेस करने की अनुमति देती है। कंपनी ने यह भी दावा किया कि मॉडल को SA-V डेटासेट नामक अपने सबसे बड़े वीडियो सेगमेंटेशन डेटासेट पर प्रशिक्षित किया गया था।

मेटा ने कहा कि एआई मॉडल वीडियो संपादन या एआई-आधारित वीडियो निर्माण की प्रक्रिया को आसान बनाने में मदद कर सकता है, साथ ही कंपनी के मिश्रित-वास्तविकता पारिस्थितिकी तंत्र में नए अनुभवों को शक्ति प्रदान कर सकता है। कंपनी ने कहा कि वीडियो में ऑब्जेक्ट ट्रैकिंग क्षमता अन्य कंप्यूटर विज़न सिस्टम को प्रशिक्षित करने के लिए विज़ुअल डेटा के तेज़ एनोटेशन में भी सहायता कर सकती है।

चूंकि यह एक ओपन-सोर्स AI मॉडल है, इसलिए कंपनी ने अपने GitHub पेज पर इसके वेट को होस्ट किया है। इच्छुक व्यक्ति AI मॉडल को डाउनलोड करके उसका परीक्षण कर सकते हैं। उल्लेखनीय रूप से, यह Apache 2.0 लाइसेंस के तहत लाइसेंस प्राप्त है जो अनुसंधान, शैक्षणिक और गैर-वाणिज्यिक उपयोग की अनुमति देता है।

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *