Vietnam.vn - Nền tảng quảng bá Việt Nam

डीपफेक पोर्न, एआई दौड़ में एक समस्या

Công LuậnCông Luận17/04/2023

[विज्ञापन_1]

डीपफेक ऐसे वीडियो और चित्र होते हैं जिन्हें कृत्रिम बुद्धिमत्ता (एआई) या मशीन लर्निंग (एमएल) का उपयोग करके डिजिटल रूप से बनाया या संशोधित किया जाता है। इस तकनीक का उपयोग करके बनाई गई पोर्नोग्राफी कुछ साल पहले इंटरनेट पर तब प्रसारित होने लगी जब एक रेडिट उपयोगकर्ता ने मशहूर हस्तियों के चेहरों वाली नकली पोर्न क्लिप साझा कीं।

डीपफेक प्रतियोगिता में अभी भी मुश्किल है छवि 1

फोटो: जीआई

कोई भी इसका शिकार हो सकता है।

तब से, डीपफेक क्रिएटर्स ऑनलाइन प्रभावशाली लोगों, पत्रकारों और सार्वजनिक प्रोफ़ाइल वाले अन्य लोगों को निशाना बनाकर ऐसे ही वीडियो और तस्वीरें पोस्ट करते रहे हैं। ऐसे हज़ारों वीडियो कई वेबसाइटों पर मौजूद हैं।

एआई प्रौद्योगिकियां तेजी से सुलभ होती जा रही हैं, जिससे उपयोगकर्ता किसी को भी उसकी सहमति के बिना "पोर्न स्टार" बना सकते हैं, या इससे भी अधिक खतरनाक बात यह है कि वे इस प्रौद्योगिकी का उपयोग दूसरों को बदनाम करने या ब्लैकमेल करने के लिए कर सकते हैं।

विशेषज्ञों का कहना है कि इंटरनेट से अरबों छवियों पर प्रशिक्षित और मौजूदा डेटा का उपयोग करके नई सामग्री उत्पन्न करने वाले जनरेटिव एआई उपकरणों के विकास से यह समस्या और भी बदतर हो सकती है।

"वास्तविकता यह है कि तकनीक का प्रसार जारी रहेगा, इसका विकास जारी रहेगा, और यह और अधिक आसानी से उपलब्ध और सुलभ होती जाएगी," एंडटैब के संस्थापक एडम डॉज ने कहा, जो तकनीक के दुरुपयोग पर प्रशिक्षण प्रदान करने वाला एक समूह है। "और जब तक यह जारी रहेगा, लोग निस्संदेह... दूसरों को नुकसान पहुँचाने के लिए इस तकनीक का दुरुपयोग करते रहेंगे, मुख्यतः ऑनलाइन यौन हिंसा, डीपफेक पोर्नोग्राफ़ी और नकली नग्न तस्वीरों के माध्यम से।"

ऑस्ट्रेलिया के पर्थ की नोएल मार्टिन ने इस हकीकत का अनुभव किया है। 28 वर्षीया नोएल मार्टिन को 10 साल पहले अपनी डीपफेक पोर्नोग्राफी का पता तब चला जब उन्होंने एक दिन उत्सुकतावश अपनी ही तस्वीर गूगल पर सर्च की। मार्टिन कहती हैं कि उन्हें आज तक नहीं पता कि ये नकली पोर्न तस्वीरें या वीडियो किसने बनाए। उन्हें शक है कि किसी ने उनकी सोशल मीडिया तस्वीरों का इस्तेमाल पोर्न वीडियो बनाने के लिए किया है।

मार्टिन ने वीडियो हटाने के लिए साइट्स से संपर्क करने की कोशिश की, लेकिन उनकी कोशिशें बेकार गईं। कुछ ने कोई जवाब नहीं दिया। कुछ ने उन्हें हटा तो दिया, लेकिन जल्दी ही दोबारा पोस्ट कर दिया। "आप जीत नहीं सकते," सुश्री मार्टिन ने कहा। "यह हमेशा के लिए इंटरनेट पर रहेगा और आपकी ज़िंदगी बर्बाद कर सकता है।"

समस्या को ठीक करने के लिए तकनीकी कंपनियों के प्रयास

कुछ एआई मॉडलों का कहना है कि उन्होंने अश्लील चित्रों तक पहुंच को प्रतिबंधित कर दिया है।

ओपनएआई ने कहा कि उसने अपने DALL-E इमेज जनरेटर को प्रशिक्षित करने के लिए इस्तेमाल किए गए डेटा से अश्लील सामग्री हटा दी है, जिससे इसके दुरुपयोग की संभावना कम हो जाएगी। कंपनी अनुरोधों को भी फ़िल्टर करती है और कहती है कि यह उपयोगकर्ताओं को मशहूर हस्तियों और प्रमुख राजनेताओं की एआई इमेज बनाने से रोकती है। एक अन्य मॉडल, मिडजर्नी, भी कुछ कीवर्ड के इस्तेमाल को रोकता है और उपयोगकर्ताओं को समस्याग्रस्त इमेज को मॉडरेटर के पास भेजने के लिए प्रोत्साहित करता है।

इस बीच, स्टेबिलिटी एआई ने एक अपडेट भी जारी किया है जो उपयोगकर्ताओं को अश्लील तस्वीरें बनाने से रोकता है। ये बदलाव उन रिपोर्टों के बाद आए हैं जिनमें कहा गया था कि कुछ उपयोगकर्ता इस तकनीक का इस्तेमाल सेलिब्रिटी से प्रेरित नग्न तस्वीरें बनाने के लिए कर रहे थे।

स्टेबिलिटी एआई के प्रवक्ता मोटेज़ बिशारा ने बताया कि यह फ़िल्टर नग्नता का पता लगाने के लिए कीवर्ड और इमेज रिकग्निशन जैसी अन्य तकनीकों के संयोजन का उपयोग करता है। लेकिन उपयोगकर्ता सॉफ़्टवेयर में बदलाव करके अपनी इच्छानुसार कुछ भी बना सकते हैं, क्योंकि कंपनी ने ऐप का ओपन सोर्स कोड जारी कर दिया है।

कुछ सोशल मीडिया कंपनियों ने भी अपने प्लेटफॉर्म को हानिकारक सामग्री से बेहतर ढंग से बचाने के लिए नियमों को कड़ा कर दिया है।

पिछले महीने, टिकटॉक ने कहा था कि सभी डीपफेक या हेरफेर की गई सामग्री को यह दर्शाने के लिए लेबल किया जाना चाहिए कि यह नकली है या किसी तरह से बदली गई है।

गेमिंग प्लेटफॉर्म ट्विच ने भी हाल ही में डीपफेक छवियों पर अपनी नीतियों को अपडेट किया है, क्योंकि जनवरी के अंत में एट्रिओक नामक एक लोकप्रिय स्ट्रीमर को लाइवस्ट्रीम के दौरान अपने ब्राउज़र पर डीपफेक पोर्न साइट खोलते हुए पकड़ा गया था।

एप्पल और गूगल ने कहा कि उन्होंने हाल ही में अपने उत्पादों के विपणन के लिए यौन रूप से अश्लील डीपफेक वीडियो चलाने के कारण एक ऐप को अपने ऐप स्टोर से हटा दिया है।

पश्चिमी गायक से के-पॉप आइडल तक।

डीपफेक पोर्न पर शोध दुर्लभ है, लेकिन एआई कंपनी डीपट्रेस लैब्स की 2019 की रिपोर्ट में पाया गया कि यह लगभग पूरी तरह से महिलाओं के खिलाफ हथियार था, जिसमें पश्चिमी अभिनेत्रियों को सबसे अधिक निशाना बनाया गया, उसके बाद के-पॉप गायक थे।

मेटा के प्रवक्ता डेनी लीवर ने एक बयान में कहा कि कंपनी की नीतियां एआई और गैर-एआई-जनरेटेड वयस्क सामग्री दोनों को प्रतिबंधित करती हैं, और यह डीपफेक-जनरेटिंग ऐप के पेज को अपने प्लेटफॉर्म पर विज्ञापन देने से रोकती है।

फरवरी में, मेटा के साथ-साथ ओनली**** और पोर्न*** जैसी वयस्क साइटों ने टेक इट डाउन नामक एक ऑनलाइन टूल में भाग लेना शुरू किया, जो किशोरों को इंटरनेट से अपनी यौन रूप से स्पष्ट तस्वीरों और वीडियो की रिपोर्ट करने की अनुमति देता है। यह साइट गुप्त रूप से फिल्माए गए वीडियो और एआई-जनरेटेड वीडियो, दोनों का समर्थन करती है।

होआंग टोन (एपी के अनुसार)


[विज्ञापन_2]
स्रोत

टिप्पणी (0)

No data
No data

उसी श्रेणी में

हनोई की हर छोटी गली में हल्की शरद ऋतु
ठंडी हवा 'सड़कों को छू रही है', हनोईवासी एक-दूसरे को मौसम की शुरुआत में चेक-इन के लिए आमंत्रित कर रहे हैं
टैम कोक का बैंगनी रंग - निन्ह बिन्ह के हृदय में एक जादुई पेंटिंग
ल्यूक होन घाटी में आश्चर्यजनक रूप से सुंदर सीढ़ीदार खेत

उसी लेखक की

विरासत

आकृति

व्यापार

सांस्कृतिक जुड़ाव की यात्रा पर एक नज़र - हनोई में विश्व सांस्कृतिक महोत्सव 2025

वर्तमान घटनाएं

राजनीतिक प्रणाली

स्थानीय

उत्पाद