अमेरिका के सबसे बड़े बैंक जेपी मॉर्गन चेस, अमेज़न और प्रौद्योगिकी कंपनी एक्सेंचर ने डेटा सुरक्षा चिंताओं के कारण अपने कर्मचारियों पर चैटजीपीटी के उपयोग पर प्रतिबंध लगा दिया है।
सीएनएन के अनुसार, इन व्यवसायों की चिंताएँ पूरी तरह से निराधार हैं। 20 मार्च को, ओपनएआई के चैटबॉट में एक त्रुटि हुई जिससे उपयोगकर्ता डेटा उजागर हो गया। हालाँकि इस त्रुटि को तुरंत ठीक कर दिया गया, लेकिन कंपनी ने खुलासा किया कि इस घटना से चैटजीपीटी प्लस के 1.2% उपयोगकर्ता प्रभावित हुए। लीक हुई जानकारी में पूरा नाम, ईमेल पता, बिलिंग पता, क्रेडिट कार्ड नंबर के अंतिम चार अंक और कार्ड की समाप्ति तिथि शामिल थी।
31 मार्च को, इटली के डेटा संरक्षण प्राधिकरण (गारंटे) ने ओपनएआई द्वारा भेद्यता का खुलासा करने के बाद गोपनीयता संबंधी चिंताओं का हवाला देते हुए चैटजीपीटी पर अस्थायी प्रतिबंध लगा दिया।
लॉ फर्म फॉक्स रोथ्सचाइल्ड एलएलपी में डेटा सुरक्षा और गोपनीयता के सह -अध्यक्ष मार्क मैकक्रेरी ने सीएनएन को बताया कि चैटजीपीटी से जुड़ी सुरक्षा चिंताएँ अतिरंजित नहीं हैं। उन्होंने एआई चैटबॉट की तुलना एक "ब्लैक बॉक्स" से की।
चैटजीपीटी को ओपनएआई ने नवंबर 2022 में लॉन्च किया था और इसने निबंध लिखने, कहानियाँ लिखने या गाने के बोल लिखने की अपनी क्षमता के कारण तेज़ी से ध्यान आकर्षित किया। गूगल और माइक्रोसॉफ्ट जैसी तकनीकी दिग्गज कंपनियों ने भी इसी तरह काम करने वाले एआई टूल लॉन्च किए हैं, जो विशाल ऑनलाइन डेटा स्टोर पर प्रशिक्षित बड़े भाषा मॉडल द्वारा संचालित होते हैं।
इटली के कदम के बाद, जर्मनी भी चैटजीपीटी पर प्रतिबंध लगाने पर विचार कर रहा है
श्री मैक्रे ने आगे कहा कि जब उपयोगकर्ता इन टूल्स में जानकारी दर्ज करते हैं, तो उन्हें पता नहीं होता कि इसका इस्तेमाल कैसे किया जाएगा। यह कंपनियों के लिए चिंताजनक है क्योंकि ज़्यादा से ज़्यादा कर्मचारी काम के ईमेल लिखने या मीटिंग के लिए नोट्स लेने के लिए टूल्स का इस्तेमाल करते हैं, जिससे व्यापारिक रहस्यों के उजागर होने का ख़तरा बढ़ जाता है।
बोस्टन कंसल्टिंग ग्रुप (बीसीजी) में एआई एथिक्स के निदेशक स्टीव मिल्स ने कहा कि कंपनियां कर्मचारियों द्वारा गलती से संवेदनशील जानकारी उजागर करने को लेकर चिंतित हैं। अगर लोगों द्वारा इनपुट किए गए डेटा का इस्तेमाल इस एआई टूल को प्रशिक्षित करने के लिए किया जा रहा है, तो इसका मतलब है कि उन्होंने डेटा का नियंत्रण किसी और को दे दिया है।
ओपनएआई की गोपनीयता नीति के अनुसार, कंपनी अपने एआई मॉडल को बेहतर बनाने के लिए सेवा उपयोगकर्ताओं से सभी व्यक्तिगत जानकारी और डेटा एकत्र कर सकती है। वे इस जानकारी का उपयोग अपनी सेवाओं को बेहतर बनाने या उनका विश्लेषण करने, शोध करने, उपयोगकर्ताओं के साथ संवाद करने और नए कार्यक्रम और सेवाएँ विकसित करने के लिए कर सकते हैं।
गोपनीयता नीति में कहा गया है कि ओपनएआई, कानून द्वारा आवश्यक होने पर ही, उपयोगकर्ताओं को सूचित किए बिना, व्यक्तिगत जानकारी तृतीय पक्षों को प्रदान कर सकता है। ओपनएआई का अपना सेवा नियम दस्तावेज़ भी है, लेकिन कंपनी एआई उपकरणों के साथ बातचीत करते समय उचित उपाय करने की ज़िम्मेदारी उपयोगकर्ताओं पर डालती है।
चैटजीपीटी के मालिकों ने अपने ब्लॉग पर सुरक्षित एआई के प्रति अपने दृष्टिकोण के बारे में लिखा है। कंपनी इस बात पर ज़ोर देती है कि वह सेवाओं को बेचने, विज्ञापन देने या उपयोगकर्ता प्रोफ़ाइल बनाने के लिए डेटा का इस्तेमाल नहीं करती। इसके बजाय, ओपनएआई अपने मॉडलों को और अधिक उपयोगी बनाने के लिए डेटा का इस्तेमाल करती है। उदाहरण के लिए, चैटजीपीटी को प्रशिक्षित करने के लिए उपयोगकर्ता बातचीत का इस्तेमाल किया जाएगा।
चैटजीपीटी की गोपनीयता नीति काफी अस्पष्ट मानी जाती है।
बार्ड एआई के पीछे की कंपनी, गूगल, अपने एआई उपयोगकर्ताओं के लिए अतिरिक्त गोपनीयता प्रावधान लेकर आई है। कंपनी बातचीत के एक छोटे से हिस्से का चयन करेगी और व्यक्तिगत रूप से पहचान योग्य जानकारी को हटाने के लिए स्वचालित उपकरणों का उपयोग करेगी, जिससे बार्ड को बेहतर बनाने में मदद मिलेगी और साथ ही उपयोगकर्ता की गोपनीयता की भी रक्षा होगी।
नमूना बातचीत की समीक्षा मानव प्रशिक्षकों द्वारा की जाएगी और उपयोगकर्ता के Google खाते से अलग, तीन साल तक संग्रहीत की जाएगी। Google उपयोगकर्ताओं को यह भी याद दिलाता है कि वे Bard AI पर बातचीत में अपनी या दूसरों की व्यक्तिगत जानकारी शामिल न करें। तकनीकी दिग्गज ने ज़ोर देकर कहा है कि इन बातचीत का इस्तेमाल विज्ञापन उद्देश्यों के लिए नहीं किया जाएगा और भविष्य में बदलावों की घोषणा की जाएगी।
बार्ड एआई उपयोगकर्ताओं को अपने Google खातों में बातचीत सहेजने से ऑप्ट-आउट करने की सुविधा देता है, साथ ही एक लिंक के ज़रिए बातचीत की समीक्षा करने या उसे हटाने की सुविधा भी देता है। इसके अलावा, कंपनी ने बार्ड को जवाबों में व्यक्तिगत जानकारी शामिल करने से रोकने के लिए सुरक्षा उपाय भी तैयार किए हैं।
स्टीव मिल्स कहते हैं कि कभी-कभी उपयोगकर्ताओं और डेवलपर्स को नई तकनीकों में छिपे सुरक्षा जोखिमों का पता तब चलता है जब बहुत देर हो चुकी होती है। उदाहरण के लिए, ऑटोफ़िल फ़ंक्शन गलती से उपयोगकर्ताओं के सामाजिक सुरक्षा नंबर प्रकट कर सकते हैं।
श्री मिल्स ने कहा कि उपयोगकर्ताओं को इन उपकरणों में ऐसी कोई भी चीज़ नहीं डालनी चाहिए जिसे वे दूसरों के साथ साझा नहीं करना चाहते।
[विज्ञापन_2]
स्रोत लिंक
टिप्पणी (0)