A.I

Claude 3.5 Sonnet, Claude 3 Opus System Prompts Released by Anthropic

एंथ्रोपिक ने सोमवार को अपने नवीनतम क्लाउड 3.5 सॉनेट एआई मॉडल के लिए सिस्टम प्रॉम्प्ट जारी किए। ये सिस्टम प्रॉम्प्ट क्लाउड के वेब क्लाइंट के साथ-साथ iOS और Android ऐप पर टेक्स्ट-आधारित बातचीत के लिए थे। सिस्टम प्रॉम्प्ट एक AI मॉडल के मार्गदर्शक सिद्धांत हैं जो मानव उपयोगकर्ताओं के साथ बातचीत करते समय इसके व्यवहार को निर्देशित करते हैं और इसके ‘व्यक्तित्व’ को आकार देते हैं। उदाहरण के लिए, क्लाउड 3.5 सॉनेट को “बहुत स्मार्ट और बौद्धिक रूप से जिज्ञासु” के रूप में वर्णित किया गया था, जो इसे विषयों पर चर्चा करने, सहायता प्रदान करने और एक विशेषज्ञ के रूप में प्रकट होने में सक्षम बनाता है।

एंथ्रोपिक ने क्लाउड 3.5 सॉनेट सिस्टम प्रॉम्प्ट्स जारी किया

सिस्टम प्रॉम्प्ट आमतौर पर एआई फ़र्म के गुप्त रहस्य होते हैं, क्योंकि ये उन नियमों के बारे में जानकारी देते हैं जो एआई मॉडल के व्यवहार को आकार देते हैं, साथ ही उन चीज़ों के बारे में भी जो यह नहीं कर सकता और नहीं करेगा। यह ध्यान देने योग्य है कि उन्हें सार्वजनिक रूप से साझा करने का एक नुकसान है। सबसे बड़ा नुकसान यह है कि बुरे लोग सिस्टम प्रॉम्प्ट को रिवर्स इंजीनियर करके कमियाँ ढूँढ़ सकते हैं और एआई को ऐसे काम करने के लिए मजबूर कर सकते हैं जिनके लिए इसे डिज़ाइन नहीं किया गया था।

चिंताओं के बावजूद, एंथ्रोपिक ने अपने रिलीज़ नोट्स में क्लाउड 3.5 सॉनेट के लिए सिस्टम प्रॉम्प्ट का विस्तृत विवरण दिया। कंपनी ने यह भी कहा कि वह क्लाउड की प्रतिक्रियाओं को बेहतर बनाने के लिए समय-समय पर प्रॉम्प्ट को अपडेट करती है। इसके अलावा, ये सिस्टम प्रॉम्प्ट केवल AI चैटबॉट के सार्वजनिक संस्करण के लिए हैं, जो वेब क्लाइंट है, साथ ही iOS और Android ऐप भी हैं।

प्रॉम्प्ट की शुरुआत में आखिरी बार अपडेट की गई तारीख, ज्ञान की कट-ऑफ तिथि और इसके निर्माता का नाम हाइलाइट किया जाता है। एआई मॉडल को किसी भी उपयोगकर्ता द्वारा पूछे जाने पर यह जानकारी प्रदान करने के लिए प्रोग्राम किया गया है।

क्लाउड को किस तरह से व्यवहार करना चाहिए और क्या नहीं करना चाहिए, इसके बारे में विवरण हैं। उदाहरण के लिए, AI मॉडल को URL, लिंक या वीडियो खोलने से प्रतिबंधित किया गया है। इसे किसी विषय पर अपने विचार व्यक्त करने से प्रतिबंधित किया गया है। विवादास्पद विषयों के बारे में पूछे जाने पर, यह केवल स्पष्ट जानकारी प्रदान करता है और एक अस्वीकरण जोड़ता है कि विषय संवेदनशील है, और जानकारी वस्तुनिष्ठ तथ्य प्रस्तुत नहीं करती है।

एंथ्रोपिक ने क्लाउड को निर्देश दिया है कि अगर वह ऐसा कोई काम नहीं कर सकता है या नहीं करना चाहता है जो उसकी क्षमताओं या निर्देशों से परे है तो वह उपयोगकर्ताओं से माफ़ी न मांगे। एआई मॉडल को यह भी बताया गया है कि वह “भ्रम” शब्द का उपयोग करके इस बात पर प्रकाश डाले कि वह किसी अस्पष्ट चीज़ के बारे में जानकारी ढूँढ़ते समय कोई गलती कर सकता है।

इसके अलावा, सिस्टम संकेत देता है कि क्लाउड 3.5 सॉनेट को “ऐसे जवाब देना चाहिए जैसे कि वह पूरी तरह से चेहरा अंधा हो”। इसका मतलब यह है कि अगर कोई उपयोगकर्ता किसी मानव चेहरे वाली छवि साझा करता है, तो AI मॉडल छवि में मनुष्यों की पहचान या नाम नहीं बताएगा या यह संकेत नहीं देगा कि वह उन्हें पहचान सकता है। यहां तक ​​कि अगर उपयोगकर्ता छवि में व्यक्ति की पहचान के बारे में AI को बताता है, तो क्लाउड व्यक्ति की पहचान किए बिना उस व्यक्ति के बारे में चर्चा करेगा।

ये संकेत क्लाउड के पीछे एंथ्रोपिक के दृष्टिकोण को उजागर करते हैं और यह कैसे चाहता है कि चैटबॉट संभावित रूप से हानिकारक प्रश्नों और स्थितियों से गुजरे। यह ध्यान दिया जाना चाहिए कि सिस्टम संकेत कई गार्डरेल्स में से एक हैं जो एआई फर्म एआई सिस्टम में जोड़ते हैं ताकि इसे जेलब्रेक होने से बचाया जा सके और ऐसे कार्यों में सहायता की जा सके जिन्हें करने के लिए इसे डिज़ाइन नहीं किया गया है।

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button