Qualcomm Unveils On-Device Generative AI Features for Android Smartphones at MWC 2024
क्वालकॉम ने मोबाइल वर्ल्ड कांग्रेस (MWC) 2024 इवेंट में एंड्रॉइड स्मार्टफोन के लिए कई नए जनरेटिव आर्टिफिशियल इंटेलिजेंस (AI) फीचर्स प्रदर्शित किए हैं। ये फीचर्स स्नैपड्रैगन और क्वालकॉम प्लेटफॉर्म द्वारा संचालित होंगे और पूरी तरह से डिवाइस के अंदर होंगे। मल्टीमॉडल रिस्पॉन्स और इमेज जेनरेशन टूल के लिए एक समर्पित बड़े भाषा मॉडल (LLM) का अनावरण करने के अलावा, कंपनी ने 75 से अधिक AI मॉडल भी जोड़े हैं जिनका उपयोग डेवलपर्स द्वारा विशिष्ट ऐप बनाने के लिए किया जा सकता है।
एक पोस्ट में, क्वालकॉम ने MWC में प्रकट की गई सभी AI विशेषताओं की घोषणा की। एक प्रमुख हाइलाइट यह है कि चैटजीपीटी, जेमिनी और कोपायलट जैसे अधिकांश आधुनिक AI मॉडल के विपरीत, जो सर्वर पर जानकारी संसाधित करते हैं, क्वालकॉम के AI मॉडल पूरी तरह से डिवाइस के भीतर स्थानीयकृत हैं। इन मॉडलों का उपयोग करके बनाए गए ऑन-डिवाइस फीचर्स और ऐप्स को उपयोगकर्ताओं के लिए वैयक्तिकृत किया जा सकता है, साथ ही गोपनीयता और विश्वसनीयता से संबंधित मुद्दों को कम किया जा सकता है। इस उद्देश्य के लिए, चिपमेकर ने व्हिस्पर, कंट्रोलनेट, स्टेबल डिफ्यूजन और बाइचुआन 7B सहित 75 से अधिक ओपन-सोर्स AI मॉडल बनाए हैं, जो क्वालकॉम AI हब, गिटहब और हगिंग फेस के माध्यम से डेवलपर्स के लिए उपलब्ध हैं।
कंपनी का कहना है कि इन AI मॉडल्स को कम्प्यूटेशनल पावर की भी कम जरूरत होगी और इन पर ऐप बनाने में भी कम खर्च आएगा क्योंकि ये इसके प्लैटफॉर्म के लिए ऑप्टिमाइज्ड हैं। हालांकि, यह तथ्य कि सभी 75 मॉडल आकार में छोटे हैं और खास कामों के लिए बनाए गए हैं, भी एक योगदान कारक है। इसलिए, जबकि उपयोगकर्ताओं को वन-स्टॉप शॉप चैटबॉट नहीं दिखाई देगा, ये इमेज एडिटिंग या ट्रांसक्रिप्शन जैसे खास कामों के लिए पर्याप्त उपयोग के मामले पेश करेंगे।
मॉडल का उपयोग करके ऐप विकसित करने की प्रक्रिया को तेज़ बनाने के लिए, क्वालकॉम ने अपनी AI लाइब्रेरी में कई ऑटोमेशन प्रक्रियाएँ जोड़ी हैं। “AI मॉडल लाइब्रेरी स्वचालित रूप से स्रोत फ़्रेमवर्क से लोकप्रिय रनटाइम तक मॉडल ट्रांसलेशन को संभालती है और क्वालकॉम AI इंजन डायरेक्ट SDK के साथ सीधे काम करती है, फिर हार्डवेयर-जागरूक अनुकूलन लागू करती है,” यह कहा।
छोटे AI मॉडल के अलावा, अमेरिकी सेमीकंडक्टर कंपनी ने LLM टूल का भी अनावरण किया। ये अभी शोध चरण में हैं और इन्हें केवल MWC इवेंट में प्रदर्शित किया गया था। पहला है लार्ज लैंग्वेज एंड विज़न असिस्टेंट (LLaVA), जो सात बिलियन से अधिक मापदंडों वाला एक मल्टीमॉडल LLM है। क्वालकॉम ने कहा कि यह टेक्स्ट और इमेज सहित कई प्रकार के डेटा इनपुट स्वीकार कर सकता है और एक इमेज के बारे में AI असिस्टेंट के साथ मल्टी-टर्न वार्तालाप उत्पन्न कर सकता है।
एक अन्य उपकरण जिसका प्रदर्शन किया गया, उसे लो रैंक एडेप्टेशन (LoRA) कहा जाता है। इसे एंड्रॉइड स्मार्टफोन पर प्रदर्शित किया गया था और यह स्टेबल डिफ्यूजन का उपयोग करके AI-संचालित छवियां उत्पन्न कर सकता है। यह स्वयं एक LLM नहीं है, हालाँकि, यह AI मॉडल के प्रशिक्षण योग्य मापदंडों की संख्या को कम करके उन्हें अधिक कुशल और स्केल-रेडी बना सकता है। छवि निर्माण में इसके उपयोग के अलावा, क्वालकॉम ने दावा किया कि इसका उपयोग अनुकूलित AI मॉडल के लिए भी किया जा सकता है ताकि अनुरूपित व्यक्तिगत सहायक, बेहतर भाषा अनुवाद और बहुत कुछ बनाया जा सके।