चैटजीपीटी पर सार्वजनिक लिंक के माध्यम से चैट साझा करने की सुविधा - फोटो: टेकराडार
चैटजीपीटी अब प्रतिदिन वैश्विक उपयोगकर्ताओं से 2.5 बिलियन से अधिक प्रश्नों तक पहुंचता है, जो इस चैटबॉट की बढ़ती लोकप्रियता को दर्शाता है।
हालाँकि, इस टूल को उपयोगकर्ताओं की ओर से कड़ी प्रतिक्रिया का सामना करना पड़ रहा है, क्योंकि "साझाकरण" सुविधा के कारण हजारों वार्तालापों की संवेदनशील जानकारी गूगल और इंटरनेट पर कुछ खोज इंजनों तक लीक हो गई है।
उच्च सुरक्षा जोखिम
श्री वु नोक सोन - राष्ट्रीय साइबर सुरक्षा संघ (एनसीए) के प्रौद्योगिकी विभाग के प्रमुख - ने आकलन किया कि उपरोक्त घटना चैटजीपीटी उपयोगकर्ताओं के लिए उच्च स्तर के सुरक्षा जोखिम को दर्शाती है।
"उपरोक्त घटना अनिवार्य रूप से कोई तकनीकी खामी नहीं है क्योंकि शेयर बटन पर क्लिक करने में उपयोगकर्ता की एक निश्चित पहल होती है। हालाँकि, यह कहा जा सकता है कि समस्या एआई चैटबॉट उत्पाद के डिज़ाइन में है, जिसने उपयोगकर्ताओं को भ्रमित किया है और उपयोगकर्ताओं द्वारा साझा किए जाने पर व्यक्तिगत डेटा लीक होने के जोखिम के बारे में पर्याप्त चेतावनी उपाय नहीं हैं," श्री वु नोक सोन ने विश्लेषण किया।
चैटजीपीटी पर, यह सुविधा उपयोगकर्ता द्वारा सार्वजनिक लिंक के माध्यम से चैट साझा करने का विकल्प चुनने के बाद लागू की जाती है, सामग्री को ओपनएआई के सर्वर पर एक सार्वजनिक वेबसाइट (chatgpt.com/share/...) के रूप में संग्रहीत किया जाएगा, इसे एक्सेस करने के लिए किसी लॉगिन या पासवर्ड की आवश्यकता नहीं होगी।
गूगल के क्रॉलर इन पृष्ठों को स्वचालित रूप से स्कैन और अनुक्रमित करते हैं, जिससे वे संवेदनशील पाठ, चित्र या चैट डेटा सहित खोज परिणामों में दिखाई देते हैं।
कई उपयोगकर्ता इस जोखिम से अनजान थे, उन्हें लगा कि वे चैट को अपने दोस्तों या संपर्कों के साथ साझा कर रहे हैं। इससे हज़ारों बातचीत उजागर हो गईं, जिनमें से कुछ मामलों में संवेदनशील व्यक्तिगत जानकारी भी शामिल थी।
हालाँकि ओपनएआई ने समुदाय की कड़ी आलोचना के बाद जुलाई 2025 के अंत में इस सुविधा को तुरंत हटा दिया, फिर भी पुराने इंडेक्स को हटाने के लिए गूगल के साथ समन्वय करने में समय लगा। खासकर जटिल स्टोरेज सिस्टम के साथ, जिसमें गूगल के कैश सर्वर भी शामिल हैं, यह जल्दी नहीं किया जा सकता।
एआई चैटबॉट्स को "सुरक्षा ब्लैक बॉक्स" न समझें
डेटा सुरक्षा विशेषज्ञ वु न्गोक सोन - राष्ट्रीय साइबर सुरक्षा संघ (एनसीए) में प्रौद्योगिकी प्रमुख - फोटो: ची हियू
हजारों चैट लॉग के लीक होने से उपयोगकर्ताओं के लिए जोखिम उत्पन्न हो सकता है, जैसे कि व्यक्तिगत और व्यावसायिक रहस्यों का खुलासा; प्रतिष्ठा को नुकसान, वित्तीय जोखिम या यहां तक कि घर के पते का खुलासा होने के कारण सुरक्षा संबंधी खतरा।
“एआई-सक्षम चैटबॉट उपयोगी हैं, लेकिन ‘ब्लैक बॉक्स’ नहीं हैं, क्योंकि अगर इसे अनियंत्रित छोड़ दिया जाए तो साझा किया गया डेटा वेब पर हमेशा के लिए मौजूद रह सकता है।
उपरोक्त घटना निश्चित रूप से प्रदाताओं और उपयोगकर्ताओं, दोनों के लिए एक सबक है। अन्य AI सेवा प्रदाता इस अनुभव से सीख लेकर और अधिक स्पष्ट एवं पारदर्शी चेतावनियों वाले फ़ीचर डिज़ाइन कर सकते हैं।
सुरक्षा विशेषज्ञ वु नोक सोन ने सुझाव दिया कि, "इसके साथ ही, उपयोगकर्ताओं को एआई प्लेटफार्मों पर पहचान या व्यक्तिगत जानकारी की अनियंत्रित पोस्टिंग को भी सक्रिय रूप से सीमित करने की आवश्यकता है।"
डेटा सुरक्षा विशेषज्ञों के अनुसार, उपरोक्त घटना एआई के लिए कानूनी गलियारों और साइबर सुरक्षा मानकों की आवश्यकता को दर्शाती है। एआई आपूर्तिकर्ताओं और डेवलपर्स को भी ऐसी प्रणालियाँ डिज़ाइन करने की आवश्यकता है जो सुरक्षा सुनिश्चित करें और डेटा लीक के जोखिम से बचें, जैसे: खराब कमजोरियों के माध्यम से लीक; सॉफ़्टवेयर कमजोरियों के कारण डेटाबेस हमले; खराब नियंत्रण के कारण विषाक्तता, झूठे और विकृत प्रश्नों के उत्तर देने के लिए दुरुपयोग।
उपयोगकर्ताओं को एआई के साथ व्यक्तिगत जानकारी साझा करने पर भी नियंत्रण रखना होगा, न कि संवेदनशील जानकारी साझा करने पर। वास्तविक आवश्यकता पड़ने पर, डेटा को विशिष्ट व्यक्तियों से सीधे जुड़े होने से बचाने के लिए, अनाम मोड का उपयोग करना या जानकारी को सक्रिय रूप से एन्क्रिप्ट करना उचित है।
स्रोत: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
टिप्पणी (0)