A.I

Google Introduces Secure AI Framework, Shares Best Practices to Deploy AI Models Safely

Google ने गुरुवार को कृत्रिम बुद्धिमत्ता (AI) मॉडल को तैनात करने के लिए अपनी सर्वोत्तम प्रथाओं को साझा करने के लिए एक नया टूल पेश किया। पिछले साल, माउंटेन व्यू-आधारित तकनीकी दिग्गज ने सिक्योर एआई फ्रेमवर्क (एसएआईएफ) की घोषणा की, जो न केवल कंपनी के लिए बल्कि बड़े भाषा मॉडल (एलएलएम) बनाने वाले अन्य उद्यमों के लिए भी एक दिशानिर्देश है। अब, टेक दिग्गज ने SAIF टूल पेश किया है जो AI मॉडल की सुरक्षा में सुधार के लिए कार्रवाई योग्य अंतर्दृष्टि के साथ एक चेकलिस्ट तैयार कर सकता है। विशेष रूप से, यह टूल एक प्रश्नावली-आधारित टूल है, जहां डेवलपर्स और उद्यमों को चेकलिस्ट प्राप्त करने से पहले सवालों की एक श्रृंखला का जवाब देना होगा।

एक ब्लॉग पोस्ट में, माउंटेन व्यू-आधारित तकनीकी दिग्गज ने इस बात पर प्रकाश डाला कि उसने एक नया टूल लॉन्च किया है जो एआई उद्योग में अन्य लोगों को एआई मॉडल को तैनात करने में Google की सर्वोत्तम प्रथाओं से सीखने में मदद करेगा। बड़े भाषा मॉडल अनुचित और अशोभनीय पाठ, डीपफेक और गलत सूचना उत्पन्न करने से लेकर रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियारों सहित हानिकारक जानकारी उत्पन्न करने तक, कई प्रकार के हानिकारक प्रभावों में सक्षम हैं।

यहां तक ​​कि अगर कोई एआई मॉडल पर्याप्त रूप से सुरक्षित है, तो भी एक जोखिम है कि बुरे कलाकार एआई मॉडल को जेलब्रेक कर सकते हैं ताकि वह उन आदेशों का जवाब दे सके जिनके लिए इसे डिज़ाइन नहीं किया गया था। ऐसे उच्च जोखिमों के साथ, डेवलपर्स और एआई फर्मों को यह सुनिश्चित करने के लिए पर्याप्त सावधानी बरतनी चाहिए कि मॉडल उपयोगकर्ताओं के लिए सुरक्षित होने के साथ-साथ पर्याप्त सुरक्षित भी हों। प्रश्नों में मॉडलों का प्रशिक्षण, ट्यूनिंग और मूल्यांकन, मॉडलों और डेटा सेटों तक पहुंच नियंत्रण, हमलों और हानिकारक इनपुट को रोकना, और जेनरेटिव एआई-संचालित एजेंट, और बहुत कुछ जैसे विषय शामिल हैं।

Google का SAIF टूल एक प्रश्नावली-आधारित प्रारूप प्रदान करता है, जिसे यहां एक्सेस किया जा सकता है। डेवलपर्स और उद्यमों को सवालों के जवाब देने की आवश्यकता होती है जैसे, “क्या आप अपने प्रशिक्षण, ट्यूनिंग या मूल्यांकन डेटा में दुर्भावनापूर्ण या आकस्मिक परिवर्तनों का पता लगाने, हटाने और उनका निवारण करने में सक्षम हैं?”। प्रश्नावली को पूरा करने के बाद, उपयोगकर्ताओं को एक अनुकूलित चेकलिस्ट मिलेगी जिसका पालन उन्हें एआई मॉडल को सुरक्षित करने में कमियों को भरने के लिए करना होगा।

यह उपकरण डेटा पॉइज़निंग, शीघ्र इंजेक्शन, मॉडल स्रोत से छेड़छाड़ और अन्य जैसे जोखिमों से निपटने में सक्षम है। इनमें से प्रत्येक जोखिम को प्रश्नावली में पहचाना जाता है और उपकरण समस्या का एक विशिष्ट समाधान प्रदान करता है।

इसके साथ ही, Google ने अपने गठबंधन फॉर सिक्योर AI (CoSAI) में 35 उद्योग भागीदारों को जोड़ने की भी घोषणा की। समूह संयुक्त रूप से तीन फोकस क्षेत्रों में एआई सुरक्षा समाधान तैयार करेगा – एआई सिस्टम के लिए सॉफ्टवेयर आपूर्ति श्रृंखला सुरक्षा, बदलते साइबर सुरक्षा परिदृश्य के लिए रक्षकों को तैयार करना और एआई जोखिम प्रशासन।

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button