माइक्रोसॉफ्ट ने आर्टिफिशियल इंटेलिजेंस (AI) कि गलत प्रतिक्रियाओं को रोकने के लिए हाल ही में एक सुरक्षा फीचर को पेश किया है।
टेक दिग्गज कंपनी ने गुरुवार (28 मार्च) को एक ब्लॉग पोस्ट में कहा कि अज्योर AI स्टूडियो में नई सुरक्षा फीचर को जोड़े जाने की योजना बना रही हैं।
यह फीचर डेवलपर्स को अपने स्वयं के डाटा का उपयोग करके खास AI असिस्टेंट बनाने की सुविधा देती है।
खासियत
कैसे काम करेगा नया सुरक्षा टूल?
अज्योर AI स्टूडियो टूल में ‘प्रॉम्प्ट शील्ड्स’ शामिल हैं, जिन्हें जानबूझकर किए गए प्रयासों का पता लगाने और ब्लॉक करने के लिए डिजाइन किया गया है। सामान्य तौर पर इन्हें प्रॉम्प्ट इंजेक्शन अटैक या जेलब्रेक के रूप में भी जाना जाता है, जिससे AI मॉडल को गलत तरीके से व्यवहार करने के लिए मजबूर किया जा सकता है।
इस टूल के आने से हैकर्स गलत तरीके से AI टूल का उपयोग नहीं कर सकेंगे।
प्रतिक्रिया
माइक्रोसॉफ्ट ने फीचर पर क्या कहा?
माइक्रोसॉफ्ट में AI की CFO सारा बर्ड ने कहा कि इस तरह के हमले एक अनूठी चुनौती और खतरा हैं। उन्होंने कहा कि नए बचाव संदिग्ध इनपुट को पहचानने और उन्हें वास्तविक समय में ब्लॉक करने के लिए डिजाइन किए गए हैं।
इसके अतिरिक्त माइक्रोसॉफ्ट यूजर्स के अनुभव को बेहतर बनाने के लिए एक ऐसी सुविधा भी शुरू कर रही, जो यूजर्स को तब सचेत करती है, जब कोई मॉडल कुछ बनाता है या गलत प्रतिक्रियाएं जनरेट करता है।