By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
The Nix LandThe Nix LandThe Nix Land
Notification Show More
Aa
Reading: Under the Hood: The Linux Kernel for AI Acceleration
Share
Aa
The Nix LandThe Nix Land
Search
Have an existing account? Sign In
Follow US
The Nix Land > Blog > OS > Linux > Under the Hood: The Linux Kernel for AI Acceleration
Linux

Under the Hood: The Linux Kernel for AI Acceleration

Biplab Das
Last updated: 2024/05/11 at 2:47 PM
Biplab Das Published May 11, 2024
Share
SHARE

चूंकि कृत्रिम बुद्धिमत्ता और मशीन लर्निंग लगभग हर उद्योग को बदल देती है, इसलिए त्वरित एआई प्रदर्शन के लिए बुनियादी ढांचे को अनुकूलित करने की दौड़ जारी है। जीपीयू और विशेष एआई चिप्स जैसे आकर्षक एआई हार्डवेयर के बीच अक्सर साधारण लिनक्स कर्नेल को नजरअंदाज कर दिया जाता है – जो हार्डवेयर संसाधनों को नियंत्रित करने वाले सॉफ्टवेयर की मूलभूत परत है और फ्रेमवर्क और रनटाइम जैसे उच्च-स्तरीय सॉफ्टवेयर स्टैक को कुशलतापूर्वक संचालित करने में सक्षम बनाता है।

लिनक्स ने लंबे समय से उच्च-प्रदर्शन कंप्यूटिंग (एचपीसी), वैज्ञानिक कार्यभार और गणना-गहन विश्लेषण के लिए ऑपरेटिंग सिस्टम रीढ़ की हड्डी के रूप में कार्य किया है। एआई के विस्फोट के साथ, लिनक्स की खुली प्रकृति और सर्वव्यापकता इसे गहन शिक्षण और डेटा-समानांतर कार्यभार के लिए हार्डवेयर त्वरण को अनलॉक करने के लिए आदर्श कर्नेल के रूप में स्थापित करती है। एआई कंप्यूटिंग क्रांति को सशक्त बनाने के लिए लिनक्स कर्नेल कैसे विकसित हो रहा है, इस पर करीब से नज़र डालें।

एआई के लिए लिनक्स कर्नेल क्यों मायने रखता है?

इसके मूल में, लिनक्स कर्नेल सीपीयू, मेमोरी, आई/ओ, नेटवर्किंग और बहुत कुछ जैसे सिस्टम संसाधनों का प्रबंधन करता है। यह TensorFlow या PyTorch जैसे अनुप्रयोगों और GPU, TPU, FPGAs, या कस्टम AI चिप्स जैसे अंतर्निहित AI त्वरक के बीच कुशल इंटरैक्शन को व्यवस्थित करने में महत्वपूर्ण भूमिका निभाता है। शेड्यूलर नीतियों, I/O सबसिस्टम, मेमोरी प्रबंधन और संसाधन प्रशासन क्षमताओं को अनुकूलित करके, कर्नेल एआई प्रशिक्षण और अनुमान प्रदर्शन में नाटकीय रूप से सुधार कर सकता है।

लिनक्स वर्चुअल मशीन (वीएम) नामक एक अमूर्त के तहत एआई त्वरण क्षमताओं को समेकित करता है – सर्वर वर्चुअलाइजेशन के लिए वर्चुअल मशीनों के साथ भ्रमित न हों। यह कर्नेल-आधारित वीएम सीपीयू, जीपीयू, डीएसपी, एफपीजीए और डोमेन-विशिष्ट एआई एक्सेलेरेटर सहित विभिन्न सिलिकॉन में एआई सॉफ्टवेयर स्टैक वाले अतिथि वीएम को निष्पादित करने के लिए एक हार्डवेयर त्वरण सुविधा के रूप में कार्य करता है। कर्नेल का काम डेटा मूवमेंट और संसाधन प्रबंधन को व्यवस्थित करते हुए वर्कलोड को उच्च-स्तरीय फ्रेमवर्क से त्वरक के इष्टतम मिश्रण तक निर्बाध रूप से भेजना है।

लिनक्स में प्रमुख एआई/एमएल अनुकूलन प्रयास

लिनक्स कर्नेल विकास समुदाय ने एआई त्वरण के रणनीतिक महत्व को पहचाना है और एआई कंप्यूटिंग युग के लिए कर्नेल को बढ़ाने के लिए एक बहु-वर्षीय प्रयास जुटाया है। प्रमुख पहलों में शामिल हैं:

एआई डेटा मूवमेंट:

एआई डेटा मूवमेंट को कम करना और सीपीयू और एक्सेलेरेटर के बीच I/O पथ को तेज करना प्रशिक्षण/अनुमान लगाने के समय को कम करने के लिए महत्वपूर्ण है। डेटा पैरेलल यूनिट कर्नेल (डीपीयूके) कंप्यूट-सघन संपीड़न/डीकंप्रेसन को ऑफलोड करते समय सीपीयू, जीपीयू और अन्य त्वरक के बीच सीधे डेटा ट्रांसफर के लिए एक मानकीकृत उपप्रणाली प्रदान करता है। GPU कर्नेल ड्राइवर समर्थन, DPHPC Verbs विनिर्देश और P2PDMA पीयर-टू-पीयर क्षमताएं जैसे मानक डेटा ट्रांसफर को सुव्यवस्थित करते हैं।

संसाधन प्रबंधन:

बहु-किरायेदार परिदृश्यों के लिए त्वरक संसाधनों को कुशलतापूर्वक साझा करना, अलग करना और बहुसंकेतन आवश्यक है। कर्नेल की मल्टी-डिवाइस, मल्टी-प्रोसेस संसाधन प्रबंधन सेवाएँ GPU साझाकरण, मेमोरी बैंडविड्थ आवंटन, QoS नियंत्रण और अन्य शासन क्षमताओं को शामिल करने के लिए विकसित हो रही हैं। कंप्यूटरेट और SRIOV/SRIOV-ND जैसी परियोजनाएं वर्कलोड में AI त्वरक को सुरक्षित रूप से विभाजित करने के लिए हार्डवेयर-आधारित अलगाव प्रदान करती हैं।

कार्य ऑफ़लोड:

त्वरक पर कम्प्यूटेशनल-गहन एआई कार्यों को ऑफलोड करने के लिए कुशल संचार चैनलों की आवश्यकता होती है। कर्नेल-टू-एक्सीलरेटर ऑफलोड एपीआई नियंत्रण प्रवाह और I/O के लिए सामान्य-उद्देश्य सीपीयू को आरक्षित करते हुए हैवीवेट नंबर क्रंचिंग को विशेष सिलिकॉन में स्थानांतरित करने के लिए प्रत्यक्ष निर्देश मार्गों को उजागर करते हैं।

मेमोरी अनुकूलन:

एआई मॉडल आकार की मांग और अत्यधिक मेमोरी बैंडविड्थ आवश्यकताओं के साथ, कर्नेल की मेमोरी प्रबंधन सुविधाएं पारदर्शी विशालपेज, उच्च बैंडविड्थ मेमोरी पूलिंग, ऑन-डिमांड पेजिंग और वर्चुअल लगातार मेमोरी क्षमताओं के साथ आगे बढ़ रही हैं।

टूलींग और दृश्यता:

एआई वर्कलोड के लिए प्रोफाइलिंग और डिबगिंग टूल विकसित हो रहे हैं, जिसमें हार्डवेयर मॉनिटरिंग काउंटरों के लिए पर्फ़ एक्सटेंशन, एआई-अवेयर इंस्ट्रक्शन ट्रेस क्षमताएं और ओपनमेट्रिक्स जैसी पहल के माध्यम से विभिन्न त्वरक में एकीकृत प्रदर्शन ट्रेसिंग शामिल हैं।

सॉफ़्टवेयर स्टैक में AI एक्सेलेरेशन का मानकीकरण

जबकि एआई एक्सेलेरेटर सिलिकॉन की कच्ची क्षमताएं प्रभावशाली हैं, पोर्टेबिलिटी और डेवलपर उत्पादकता के लिए पूर्ण स्टैक में सॉफ्टवेयर इंटरफेस को मानकीकृत करना आवश्यक है। यहीं पर OAID (ओपन एक्सेलेरेटर इंफ्रास्ट्रक्चर) प्रोजेक्ट जैसे संगठनों द्वारा संचालित खुले मानक महत्वपूर्ण हैं। OAID सिलिकॉन से लेकर हार्डवेयर ड्राइवर, कंपाइलर, रनटाइम, लाइब्रेरी और डेवलपर फ्रेमवर्क तक फैला हुआ है।

कर्नेल परत के भीतर, OAID के SocArch कर्नेल SoC आर्किटेक्चर स्पेक और HAUST फ्रेमवर्क जैसे मानक विविध हार्डवेयर में अमूर्त परतें प्रदान करते हैं। इंटेल का वनएपीआई रेंडरिंग टूलकिट और एआई एनालिटिक्स टूलकिट भी सीपीयू, जीपीयू, एफपीजीए और एक्सपीयू सिलिकॉन का फायदा उठाने के लिए लिनक्स कर्नेल में एकीकृत होता है। मानक-आधारित इंटरफेस के साथ, एमएल इंजीनियर आदर्श रूप से अपने मॉडल को एक बार कोड कर सकते हैं और उपलब्धता या प्रदर्शन आवश्यकताओं के आधार पर उन्हें विभिन्न त्वरक लक्ष्यों पर निष्पादित कर सकते हैं।

शुरुआती अपनाने वाले गति बढ़ा रहे हैं

हालांकि अभी भी एक उभरता हुआ डोमेन है, प्रमुख प्रौद्योगिकी खिलाड़ी एआई त्वरण में लिनक्स कर्नेल की भूमिका की वकालत कर रहे हैं। प्रमुख योगदानकर्ताओं और शुरुआती अपनाने वालों में शामिल हैं:

Google के डेटा केंद्र TPU और GPU में TensorFlow वर्कलोड को सुपरचार्ज करने के लिए Linux के GPU ऑफलोड और डेटा मूवमेंट सुविधाओं का उपयोग करते हैं। Google अपनी टेंसर प्रोसेसिंग इकाइयों में इसी तरह की तकनीकों का विस्तार करना चाह रहा है।

फेसबुक ने कर्नेल पैच पर Google के साथ सहयोग किया है, जिसका उद्देश्य PyTorch जैसे लोकप्रिय फ्रेमवर्क का उपयोग करके NVIDIA GPU पर AI प्रशिक्षण को बढ़ाना है।

अमेज़ॅन एडब्ल्यूएस इन्फेरेंटिया और हबाना गौडी एएसआईसी जैसे हार्डवेयर त्वरक के साथ ईसी2 इंस्टेंसेस को मजबूती से जोड़ने के लिए एडब्ल्यूएस पर लिनक्स I/O पथों को अनुकूलित कर रहा है।

एनवीडिया ओपन-सोर्स कर्नेल परियोजनाओं में योगदान देता है जो एनवीडिया जीपीयू पर उच्च-प्रदर्शन एआई, ग्राफिक्स, कंप्यूटर विज़न और समानांतर कंप्यूटिंग के लिए जीपीयू कंप्यूटिंग क्षमताओं का विस्तार करता है।

इंटेल लिनक्स समुदाय, ओडीपीआई और इंटेल ज़ीऑन और एआई एक्सपीयू प्रोसेसर पर निर्माण करने वाले एआई डेटा केंद्रों में एआई कर्नेल पहल खोलने में बड़े पैमाने पर योगदान देता है।

Microsoft ने Azure पर AI अनुमान को तेज करने के लिए Linux कर्नेल डेटा ट्रांसफर अनुकूलन को उन्नत करने के लिए NVIDIA और Ampere के साथ साझेदारी की है।

अभी भी विकसित होने के दौरान, लिनक्स कर्नेल की सर्वव्यापकता और तेजी से बढ़ती एआई त्वरण क्षमताएं इसे एआई/एमएल कंप्यूटिंग क्रांति के केंद्र में रखती हैं। एआई पहल को बढ़ाने की चाहत रखने वाले संगठनों के लिए, कर्नेल परत में सॉफ्टवेयर-सिलिकॉन इंटरैक्शन का अनुकूलन उद्योग-अग्रणी प्रदर्शन प्राप्त करने और एआई की परिवर्तनकारी क्षमता को उजागर करने के लिए महत्वपूर्ण साबित होगा।

You Might Also Like

A Step-by-Step Guide to Contributing to the Linux Open Source Community

6 Must-Have Linux Open Source Tools for Developers

The History and Evolution of Linux

लिनक्स डिस्ट्रो शोडाउन: शुरुआती और पावर यूज़र्स के लिए एक व्यापक तुलना (Linux Distros Showdown: A Comprehensive Comparison for Beginners and Power Users)

Linux vs. Windows: Choosing the Most Secure Operating System for Your Needs

TAGGED: Linux Kernel
Share This Article
Facebook Twitter Email Print
Leave a comment

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Follow US

Find US on Social Medias
Facebook Like
Twitter Follow
Youtube Subscribe
Telegram Follow

Weekly Newsletter

Subscribe to our newsletter to get our newest articles instantly!

[mc4wp_form]
Popular News
Hardware

Nvidia RTX 5050 to 5090 laptop GPUs spotted, suggesting next-gen graphics cards are ready for rumored CES 2025 launch

Biplab Das Biplab Das January 3, 2025
Google Gemini 2.0 Family Unveiled, Gemini 2.0 Flash Added to the Chatbot on Web and Mobile Apps
What is AMD FSR? The upscaling technology explained
An Overview of Linux Cloud Computing Platforms: OpenStack and AWS
ChatGPT First-Person Bias and Stereotypes Tested in a New OpenAI Study
- Advertisement -
Ad imageAd image
Global Coronavirus Cases

Confirmed

0

Death

0

More Information:Covid-19 Statistics

Categories

  • ES Money
  • U.K News
  • The Escapist
  • Insider
  • Science
  • Technology
  • LifeStyle
  • Marketing

About US

We influence 20 million users and is the number one business and technology news network on the planet.

Subscribe US

Subscribe to our newsletter to get our newest articles instantly!

[mc4wp_form]
© Foxiz News Network. Ruby Design Company. All Rights Reserved.
Welcome Back!

Sign in to your account

Lost your password?