डीपफेक ऐसे वीडियो और इमेज होते हैं जिन्हें आर्टिफिशियल इंटेलिजेंस (एआई) या मशीन लर्निंग (एमएल) का उपयोग करके डिजिटल रूप से बनाया या बदला जाता है। इस तकनीक का उपयोग करके बनाई गई पोर्नोग्राफी सबसे पहले कुछ साल पहले इंटरनेट पर फैलनी शुरू हुई थी, जब एक रेडिट यूजर ने मशहूर हस्तियों के चेहरों वाले नकली पोर्न क्लिप शेयर किए थे।
फोटो: जीआई
कोई भी पीड़ित हो सकता है।
तब से, डीपफेक बनाने वाले ऑनलाइन इन्फ्लुएंसर्स, पत्रकारों और सार्वजनिक प्रोफाइल वाले अन्य लोगों को निशाना बनाकर इसी तरह के वीडियो और तस्वीरें पोस्ट करते रहे हैं। ऐसी हजारों वीडियो कई वेबसाइटों पर मौजूद हैं।
एआई तकनीक के तेजी से सुलभ होने के साथ, यह उपयोगकर्ताओं को किसी को भी उनकी सहमति के बिना "पोर्न स्टार" में बदलने की अनुमति देता है, या इससे भी अधिक खतरनाक रूप से, इस तकनीक का उपयोग दूसरों को बदनाम करने या ब्लैकमेल करने के लिए कर सकते हैं।
विशेषज्ञों का कहना है कि इंटरनेट से अरबों छवियों पर प्रशिक्षित और मौजूदा डेटा का उपयोग करके नई सामग्री उत्पन्न करने वाले सामान्यीकृत एआई उपकरणों के विकास के साथ यह समस्या और भी बदतर हो सकती है।
“वास्तविकता यह है कि प्रौद्योगिकी का प्रसार जारी रहेगा, यह विकसित होती रहेगी और अधिक आसानी से उपलब्ध और सुलभ होती जाएगी,” एंडटैब के संस्थापक एडम डॉज ने कहा, जो प्रौद्योगिकी के दुरुपयोग पर प्रशिक्षण प्रदान करने वाला एक समूह है। “और जब तक यह सिलसिला जारी रहेगा, लोग निस्संदेह... दूसरों को नुकसान पहुंचाने के लिए इस प्रौद्योगिकी का दुरुपयोग करते रहेंगे, मुख्य रूप से ऑनलाइन यौन हिंसा, डीपफेक पोर्नोग्राफी और नकली नग्न तस्वीरों के माध्यम से।”
ऑस्ट्रेलिया के पर्थ की नोएल मार्टिन ने इस कड़वी सच्चाई का अनुभव किया है। 28 वर्षीय मार्टिन को 10 साल पहले उस समय अपनी ही डीपफेक पोर्न तस्वीरें मिलीं, जब उन्होंने एक दिन जिज्ञासावश गूगल पर अपनी तस्वीर खोजी। आज तक मार्टिन का कहना है कि उन्हें नहीं पता कि ये नकली पोर्न तस्वीरें या वीडियो किसने बनाए हैं। उन्हें शक है कि किसी ने उनकी सोशल मीडिया तस्वीरों का इस्तेमाल करके पोर्न वीडियो बनाए हैं।
वीडियो हटवाने के लिए वेबसाइटों से संपर्क करने की मार्टिन की कोशिशें नाकाम रहीं। कुछ वेबसाइटों ने जवाब नहीं दिया। कुछ ने वीडियो हटाए लेकिन तुरंत दोबारा अपलोड कर दिए। मार्टिन ने कहा, "आप जीत नहीं सकते। ये वीडियो इंटरनेट पर हमेशा के लिए रहेंगे और आपकी जिंदगी बर्बाद कर सकते हैं।"
तकनीकी कंपनियों द्वारा समस्या को हल करने के प्रयास
कुछ एआई मॉडल का कहना है कि उन्होंने अश्लील छवियों तक पहुंच को सीमित कर दिया है।
ओपनएआई ने कहा कि उसने अपने डीएएलएल-ई इमेज जनरेटर को प्रशिक्षित करने के लिए उपयोग किए गए डेटा से अश्लील सामग्री हटा दी है, जिससे इसके दुरुपयोग की संभावना कम हो जाएगी। कंपनी अनुरोधों को फ़िल्टर भी करती है और कहती है कि वह उपयोगकर्ताओं को मशहूर हस्तियों और प्रमुख राजनेताओं की एआई छवियां बनाने से रोकती है। एक अन्य मॉडल, मिडजर्नी, भी कुछ कीवर्ड के उपयोग को रोकता है और उपयोगकर्ताओं को आपत्तिजनक छवियों को मॉडरेटर को सूचित करने के लिए प्रोत्साहित करता है।
इसी बीच, स्टेबिलिटी एआई ने एक अपडेट जारी किया है जो उपयोगकर्ताओं को अश्लील तस्वीरें बनाने से रोकता है। ये बदलाव उन रिपोर्टों के बाद आए हैं जिनमें कहा गया था कि कुछ उपयोगकर्ता इस तकनीक का इस्तेमाल मशहूर हस्तियों से प्रेरित नग्न तस्वीरें बनाने के लिए कर रहे थे।
स्टेबिलिटी एआई के प्रवक्ता मोटेज़ बिशारा ने बताया कि यह फ़िल्टर नग्नता का पता लगाने के लिए कीवर्ड और इमेज रिकग्निशन जैसी अन्य तकनीकों का इस्तेमाल करता है। लेकिन कंपनी ने ऐप का ओपन सोर्स कोड जारी कर दिया है, इसलिए उपयोगकर्ता सॉफ़्टवेयर में बदलाव करके अपनी इच्छानुसार कुछ भी बना सकते हैं ।
कुछ सोशल मीडिया कंपनियों ने अपने प्लेटफॉर्म को हानिकारक सामग्री से बेहतर ढंग से बचाने के लिए नियमों को और सख्त कर दिया है।
पिछले महीने, टिकटॉक ने कहा था कि सभी डीपफेक या छेड़छाड़ की गई सामग्री पर यह लेबल लगाना अनिवार्य है कि वह नकली है या किसी न किसी तरह से बदली गई है।
गेमिंग प्लेटफॉर्म ट्विच ने भी हाल ही में डीपफेक छवियों पर अपनी नीतियों को अपडेट किया है, जब जनवरी के अंत में एट्रीओक नामक एक लोकप्रिय स्ट्रीमर को लाइवस्ट्रीम के दौरान अपने ब्राउज़र पर एक डीपफेक पोर्न साइट खोलते हुए पकड़ा गया था।
एप्पल और गूगल ने कहा कि उन्होंने हाल ही में अपने ऐप स्टोर से एक ऐप को हटा दिया है, जो अपने उत्पादों के विपणन के लिए यौन रूप से उत्तेजक डीपफेक वीडियो चला रहा था।
पश्चिमी गायिका से लेकर के-पॉप आइडल तक।
डीपफेक पोर्न पर शोध दुर्लभ है, लेकिन एआई कंपनी डीप ट्रेस लैब्स की 2019 की एक रिपोर्ट में पाया गया कि इसका इस्तेमाल लगभग पूरी तरह से महिलाओं के खिलाफ हथियार के रूप में किया गया था, जिसमें पश्चिमी अभिनेत्रियों को सबसे अधिक निशाना बनाया गया था, उसके बाद के-पॉप गायिकाओं का नंबर आता है।
मेटा की प्रवक्ता डैनी लीवर ने एक बयान में कहा कि कंपनी की नीतियां एआई और गैर-एआई द्वारा निर्मित वयस्क सामग्री दोनों को प्रतिबंधित करती हैं, और यह डीपफेक उत्पन्न करने वाले ऐप के पेज को अपने प्लेटफॉर्म पर विज्ञापन देने से रोकती है।
फरवरी में, मेटा ने ओनली**** और पॉर्न*** जैसी वयस्क वेबसाइटों के साथ मिलकर टेक इट डाउन नामक एक ऑनलाइन टूल में भाग लेना शुरू किया, जो किशोरों को इंटरनेट से अपनी अश्लील छवियों और वीडियो की रिपोर्ट करने की अनुमति देता है। यह साइट गुप्त रूप से फिल्माए गए वीडियो और एआई-जनित वीडियो दोनों को संसाधित करने में सक्षम है।
होआंग टोन (एपी के अनुसार)
[विज्ञापन_2]
स्रोत










टिप्पणी (0)