बीजीआर के अनुसार, एक नई शोध रिपोर्ट में 'फन-ट्यूनिंग' नामक एक चौंकाने वाली तकनीक प्रकाशित की गई है, जिसमें एआई (कृत्रिम बुद्धिमत्ता) का उपयोग करके स्वचालित रूप से अन्य उन्नत एआई मॉडलों को लक्षित करते हुए अत्यंत प्रभावी त्वरित इंजेक्शन हमले किए जाते हैं, जिनमें गूगल का जेमिनी भी शामिल है।
यह विधि एआई को पहले से कहीं अधिक तेज, सस्ता और आसान बना देती है, जो एआई से संबंधित साइबर सुरक्षा लड़ाई में एक नई वृद्धि को चिह्नित करती है।
ख़तरा तब होता है जब बुरे लोग AI को तोड़ने के लिए AI का इस्तेमाल करते हैं
प्रॉम्प्ट इंजेक्शन एक ऐसी तकनीक है जिसमें एक विरोधी किसी AI मॉडल के इनपुट डेटा में दुर्भावनापूर्ण निर्देश डाल देता है (जैसे, सोर्स कोड में टिप्पणियों के माध्यम से, वेब पर छिपे हुए टेक्स्ट के माध्यम से)। इसका लक्ष्य AI को पूर्व-प्रोग्राम किए गए सुरक्षा नियमों को दरकिनार करने के लिए 'धोखा' देना है, जिसके परिणामस्वरूप संवेदनशील डेटा लीक होना, गलत जानकारी प्रदान करना, या अन्य दुर्भावनापूर्ण कार्य करना जैसे गंभीर परिणाम हो सकते हैं।
हैकर्स AI पर हमला करने के लिए AI का उपयोग कर रहे हैं
फोटो: लिंक्डइन स्क्रीनशॉट
इससे पहले, इन हमलों को सफलतापूर्वक निष्पादित करने के लिए, विशेष रूप से जेमिनी या जीपीटी-4 जैसे 'बंद' मॉडलों पर, अक्सर बहुत जटिल और समय लेने वाली मैनुअल जांच की आवश्यकता होती थी।
लेकिन फन-ट्यूनिंग ने खेल को पूरी तरह से बदल दिया है। कई विश्वविद्यालयों के शोधकर्ताओं की एक टीम द्वारा विकसित यह तरीका उसी ट्यूनिंग एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस (API) का चतुराई से इस्तेमाल करता है जो गूगल जेमिनी उपयोगकर्ताओं को मुफ़्त में उपलब्ध कराता है।
ट्यूनिंग के दौरान जेमिनी मॉडल की सूक्ष्म प्रतिक्रियाओं (जैसे, डेटा में त्रुटियों पर इसकी प्रतिक्रिया) का विश्लेषण करके, फ़न-ट्यूनिंग किसी दुर्भावनापूर्ण आदेश को छिपाने के लिए सबसे प्रभावी 'प्रीफ़िक्स' और 'सफ़िक्स' का स्वतः निर्धारण कर सकती है। इससे इस बात की संभावना काफ़ी बढ़ जाती है कि AI हमलावर के दुर्भावनापूर्ण इरादों का पालन करेगा।
परीक्षण के परिणाम दर्शाते हैं कि फन-ट्यूनिंग ने जेमिनी के कुछ संस्करणों पर 82% तक की सफलता दर प्राप्त की है, जो कि पारंपरिक आक्रमण विधियों के 30% से भी कम की सफलता दर को पार कर जाती है।
फ़न-ट्यूनिंग के ख़तरे को और बढ़ाने वाली बात इसकी कम लागत है। चूँकि गूगल का ट्यूनिंग एपीआई मुफ़्त में उपलब्ध है, इसलिए एक प्रभावी हमला करने की कम्प्यूटेशनल लागत $10 जितनी कम हो सकती है। इसके अलावा, शोधकर्ताओं ने पाया कि जेमिनी के एक संस्करण के लिए डिज़ाइन किया गया हमला दूसरे संस्करणों पर आसानी से सफलतापूर्वक लागू किया जा सकता है, जिससे व्यापक हमलों की संभावना बढ़ जाती है।
गूगल ने पुष्टि की है कि वह फ़न-ट्यूनिंग से उत्पन्न खतरे से अवगत है, लेकिन अभी तक इस पर कोई टिप्पणी नहीं की है कि क्या वह ट्यूनिंग एपीआई के काम करने के तरीके में बदलाव करेगा। शोधकर्ता रक्षात्मक दुविधा की ओर भी इशारा करते हैं: ट्यूनिंग प्रक्रिया से फ़न-ट्यूनिंग द्वारा शोषण की जाने वाली जानकारी को हटाने से एपीआई वैध डेवलपर्स के लिए कम उपयोगी हो जाएगा। इसके विपरीत, इसे ऐसे ही छोड़ देने से बुरे लोगों के लिए शोषण का एक मंच बना रहेगा।
फन-ट्यूनिंग का उदय एक स्पष्ट चेतावनी है कि साइबरस्पेस में टकराव एक नए, अधिक जटिल दौर में प्रवेश कर चुका है। एआई अब न केवल एक लक्ष्य है, बल्कि दुर्भावनापूर्ण तत्वों के हाथों में एक उपकरण और हथियार भी है।
[विज्ञापन_2]
स्रोत: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
टिप्पणी (0)