अमेरिका के सबसे बड़े बैंक जेपी मॉर्गन चेस, अमेज़न और प्रौद्योगिकी कंपनी एक्सेंचर ने डेटा सुरक्षा चिंताओं के कारण अपने कर्मचारियों पर चैटजीपीटी के उपयोग पर प्रतिबंध लगा दिया है।
सीएनएन के अनुसार, इन कंपनियों की चिंताएँ जायज़ हैं। 20 मार्च को, ओपनएआई के चैटबॉट में एक त्रुटि हुई जिससे उपयोगकर्ता डेटा उजागर हो गया। हालाँकि इस त्रुटि को तुरंत ठीक कर दिया गया, लेकिन कंपनी ने खुलासा किया कि इस घटना से चैटजीपीटी प्लस के 1.2% उपयोगकर्ता प्रभावित हुए। लीक हुई जानकारी में पूरा नाम, ईमेल पता, बिलिंग पता, क्रेडिट कार्ड नंबर के अंतिम चार अंक और कार्ड की समाप्ति तिथि शामिल थी।
31 मार्च को, इटली के डेटा संरक्षण प्राधिकरण (गारंटे) ने ओपनएआई द्वारा भेद्यता का खुलासा करने के बाद गोपनीयता संबंधी चिंताओं का हवाला देते हुए चैटजीपीटी पर अस्थायी प्रतिबंध लगा दिया।
लॉ फर्म फॉक्स रोथ्सचाइल्ड एलएलपी में डेटा सुरक्षा और गोपनीयता के सह -अध्यक्ष मार्क मैकक्रेरी ने सीएनएन को बताया कि चैटजीपीटी से जुड़ी सुरक्षा चिंताएँ अतिरंजित नहीं हैं। उन्होंने एआई चैटबॉट की तुलना एक "ब्लैक बॉक्स" से की।
चैटजीपीटी को ओपनएआई द्वारा नवंबर 2022 में जारी किया गया था और इसने प्रॉम्प्ट जारी करके निबंध, कहानियाँ और गीत के बोल लिखने की अपनी क्षमता के कारण तेज़ी से ध्यान आकर्षित किया। गूगल और माइक्रोसॉफ्ट जैसी तकनीकी दिग्गज कंपनियों ने भी इसी तरह के एआई टूल जारी किए हैं, जो विशाल ऑनलाइन डेटा रिपॉजिटरी पर प्रशिक्षित बड़े भाषा मॉडल द्वारा संचालित हैं।
इटली के कदम के बाद, जर्मनी भी चैटजीपीटी पर प्रतिबंध लगाने पर विचार कर रहा है
मैकक्री ने आगे कहा, "जब उपयोगकर्ता इन टूल्स में जानकारी दर्ज करते हैं, तो उन्हें पता नहीं होता कि इसका इस्तेमाल कैसे किया जाएगा। यह कंपनियों के लिए चिंताजनक है क्योंकि ज़्यादा से ज़्यादा कर्मचारी काम के ईमेल लिखने या मीटिंग के लिए नोट्स लेने के लिए टूल्स का इस्तेमाल करते हैं, जिससे व्यापारिक रहस्यों के उजागर होने का ख़तरा बढ़ जाता है।"
बोस्टन कंसल्टिंग ग्रुप (बीसीजी) में एआई एथिक्स के निदेशक स्टीव मिल्स ने कहा कि कंपनियाँ कर्मचारियों द्वारा गलती से संवेदनशील जानकारी उजागर करने को लेकर चिंतित हैं। अगर लोगों द्वारा इनपुट किया गया डेटा इस एआई टूल को प्रशिक्षित करने के लिए इस्तेमाल किया जा रहा है, तो इसका मतलब है कि उन्होंने डेटा पर नियंत्रण किसी और के हाथों में खो दिया है।
ओपनएआई की गोपनीयता नीति के अनुसार, कंपनी एआई मॉडल को बेहतर बनाने के लिए सेवा उपयोगकर्ताओं की सभी व्यक्तिगत जानकारी और डेटा एकत्र कर सकती है। वे इस जानकारी का उपयोग अपनी सेवाओं को बेहतर बनाने या उनका विश्लेषण करने, शोध करने, उपयोगकर्ताओं के साथ संवाद करने और नए कार्यक्रम और सेवाएँ विकसित करने के लिए कर सकते हैं।
गोपनीयता नीति में कहा गया है कि ओपनएआई, कानून द्वारा आवश्यक होने पर ही, उपयोगकर्ताओं को सूचित किए बिना, व्यक्तिगत जानकारी तृतीय पक्षों को प्रदान कर सकता है। ओपनएआई का अपना सेवा नियम दस्तावेज़ भी है, लेकिन कंपनी एआई उपकरणों के साथ बातचीत करते समय उचित उपाय करने की ज़िम्मेदारी उपयोगकर्ताओं पर डालती है।
चैटजीपीटी के मालिकों ने अपने ब्लॉग पर सुरक्षित एआई के प्रति अपने दृष्टिकोण के बारे में लिखा है। कंपनी इस बात पर ज़ोर देती है कि वह सेवाओं को बेचने, विज्ञापन देने या उपयोगकर्ता प्रोफ़ाइल बनाने के लिए डेटा का उपयोग नहीं करती है, बल्कि ओपनएआई अपने मॉडलों को और अधिक उपयोगी बनाने के लिए डेटा का उपयोग करती है। उदाहरण के लिए, चैटजीपीटी को प्रशिक्षित करने के लिए उपयोगकर्ता बातचीत का उपयोग किया जाएगा।
चैटजीपीटी की गोपनीयता नीति काफी अस्पष्ट मानी जाती है।
बार्ड एआई के पीछे की कंपनी, गूगल, अपने एआई उपयोगकर्ताओं के लिए अतिरिक्त गोपनीयता प्रावधान लेकर आई है। कंपनी बातचीत के एक छोटे से हिस्से का चयन करेगी और व्यक्तिगत रूप से पहचान योग्य जानकारी को हटाने के लिए स्वचालित उपकरणों का उपयोग करेगी, जिससे बार्ड को बेहतर बनाने में मदद मिलेगी और साथ ही उपयोगकर्ता की गोपनीयता की भी रक्षा होगी।
नमूना बातचीत की समीक्षा मानव प्रशिक्षकों द्वारा की जाएगी और उपयोगकर्ता के Google खाते से अलग, तीन साल तक संग्रहीत की जाएगी। Google उपयोगकर्ताओं को यह भी याद दिलाता है कि वे Bard AI पर बातचीत में अपनी या दूसरों की व्यक्तिगत जानकारी शामिल न करें। तकनीकी दिग्गज ने ज़ोर देकर कहा है कि इन बातचीत का इस्तेमाल विज्ञापन उद्देश्यों के लिए नहीं किया जाएगा और भविष्य में बदलावों की घोषणा की जाएगी।
बार्ड एआई उपयोगकर्ताओं को अपने Google खातों में बातचीत सहेजने से ऑप्ट-आउट करने की सुविधा देता है, साथ ही एक लिंक के ज़रिए बातचीत की समीक्षा करने या उसे हटाने की सुविधा भी देता है। इसके अलावा, कंपनी ने बार्ड को जवाबों में व्यक्तिगत जानकारी शामिल करने से रोकने के लिए सुरक्षा उपाय भी तैयार किए हैं।
स्टीव मिल्स कहते हैं कि कभी-कभी उपयोगकर्ता और डेवलपर्स नई तकनीकों में छिपे सुरक्षा जोखिमों का पता तब लगाते हैं जब बहुत देर हो चुकी होती है। उदाहरण के लिए, ऑटोकम्प्लीट फ़ंक्शन गलती से उपयोगकर्ताओं के सामाजिक सुरक्षा नंबर प्रकट कर सकते हैं।
श्री मिल्स ने कहा कि उपयोगकर्ताओं को इन उपकरणों में ऐसी कोई भी चीज़ नहीं डालनी चाहिए जिसे वे दूसरों के साथ साझा नहीं करना चाहते।
[विज्ञापन_2]
स्रोत लिंक
टिप्पणी (0)