
दुर्भावनापूर्ण तत्व संवेदनशील छवियों और वीडियो में हेरफेर करने के लिए एआई का उपयोग कर सकते हैं ताकि दूसरों को बदनाम किया जा सके या उनसे जबरन वसूली की जा सके - फोटो: एआई ड्राइंग।
पहले, जब किसी एक व्यक्ति के चेहरे को दूसरे के शरीर पर सुपरइम्पोज़ करने की तकनीक पर चर्चा की जाती थी, तो लोग अक्सर फोटोशॉप या अन्य विशेष फोटो एडिटिंग सॉफ्टवेयर का उपयोग करते थे - जो श्रमसाध्य था और नग्न आंखों से आसानी से पहचाना जा सकता था।
अब, एआई टूल्स की मदद से लोग यह काम कुछ ही पलों में बहुत आसानी से कर सकते हैं, लेकिन इसे नंगी आंखों से आसानी से पता नहीं लगाया जा सकता है।
ब्लैकमेल के लिए सेक्स वीडियो में चेहरों की अदला-बदली करना।
काम से जुड़े संपर्कों के कारण, श्री एच. (हो ची मिन्ह सिटी में एक व्यवसाय के निदेशक) अक्सर सोशल मीडिया पर सक्रिय रहते हैं।
एक बार एक युवती ने उससे दोस्ती की और उसके काम के बारे में पूछताछ की। कुछ समय तक बातचीत करने और काम व निजी जीवन के किस्से साझा करने के बाद वे काफी करीबी दोस्त बन गए।
दोनों के बीच स्नेह भरे शब्दों से भरे कई टेक्स्ट मैसेज का आदान-प्रदान भी हुआ, साथ ही तस्वीरें भी भेजी गईं और वीडियो कॉल भी की गईं ताकि वे एक-दूसरे का चेहरा देख सकें।
एक दिन, श्री एच. को किसी ऐसे व्यक्ति का फोन आया जिसने खुद को लड़की का पति बताया। कुछ देर चेतावनी देने के बाद, "पति" ने श्री एच. से मुआवज़े की रकम भेजने की मांग की, अन्यथा चैट लॉग और यौन वीडियो के स्क्रीनशॉट उनके रिश्तेदारों और व्यापारिक साझेदारों को भेज दिए जाने का खतरा था।
फिर श्री एच. को उनके "पति" द्वारा उनका और दूसरी महिला का एक सेक्स वीडियो दिखाया गया, साथ ही उनके फोन कॉल का वीडियो और उनके अंतरंग टेक्स्ट संदेशों के स्क्रीनशॉट भी दिखाए गए...
श्री एच. ने दावा किया, "मैं उस लड़की से कभी नहीं मिला, इसलिए मुझे यकीन है कि सेक्स वीडियो एडिट किया गया है।" हालांकि, सेक्स वीडियो में दिख रही लड़की का चेहरा और उनके वीडियो कॉल में दिख रही लड़की का चेहरा बिल्कुल एक जैसा था, साथ ही रोमांटिक संदेशों के स्क्रीनशॉट भी मौजूद थे, जिसके चलते श्री एच. को अपनी प्रतिष्ठा बचाने के लिए बार-बार "पति" को पैसे भेजने पड़े।
तुओई ट्रे अखबार की जांच के अनुसार, श्री एच. एक सुनियोजित और संगठित घोटाले का शिकार हुए, जिसे पूरी तरह से अंजाम दिया गया था। इस घोटाले में श्री एच. को डीपफेक तकनीक के जरिए दो बार धोखा दिया गया। पहली बार वीडियो कॉल के जरिए और दूसरी बार एक सेक्स वीडियो के जरिए।
खास बात यह है कि सेक्स वीडियो में श्री एच. का चेहरा इतनी कुशलता से सुपरइम्पोज़ किया गया था कि दर्शकों को यह विश्वास करना मुश्किल हो गया कि यह एक नकली वीडियो है। एक एआई विशेषज्ञ ने तुओई ट्रे अखबार को पुष्टि की कि अपराधी ने एक नए एआई टूल का इस्तेमाल किया था जो चेहरों को वीडियो पर हूबहू सुपरइम्पोज़ करने में सक्षम है... जिससे वे अविश्वसनीय रूप से वास्तविक दिखते हैं।
चेहरे बदलने के लिए अनगिनत एआई टूल मौजूद हैं।
अब कई एआई-संचालित उपकरण उपलब्ध हैं जिनमें वांछित चेहरे के साथ किसी भी मानव आकृति को बनाने या किसी अन्य व्यक्ति के शरीर पर वांछित चेहरे को आरोपित करने जैसी विशेषताएं हैं।
इन उपकरणों में ऐसे फीचर्स भी शामिल हैं जो दुर्भावनापूर्ण उद्देश्यों को पूरा करते हैं, जैसे कि साधारण तस्वीरों को नग्न छवियों में बदलना, तस्वीर में मौजूद व्यक्ति के कपड़े उतार देना, या वीडियो में किसी व्यक्ति के चेहरे को इच्छित चेहरे से बदल देना...
इनमें से अधिकांश एआई टूल परीक्षण अवधि प्रदान करते हैं; सशुल्क संस्करण पूर्ण कार्यक्षमता और बहुत तेज़ रूपांतरण समय प्रदान करता है।
उदाहरण के लिए, उस फीचर के साथ जो चेहरों को दूसरे लोगों के शरीर पर बदल देता है, उपयोगकर्ता बस दो मिलती-जुलती तस्वीरें अपलोड करते हैं और परिणाम के लिए कुछ सेकंड प्रतीक्षा करते हैं।
या फिर, सामान्य तस्वीरों से नग्न छवियां बनाने की सुविधा के साथ, एआई उपकरण इसे बहुत जल्दी, कुछ ही सेकंडों में कर सकते हैं, जिससे दर्शक चौंक जाते हैं।
सेक्स वीडियो में चेहरों को बदलने का फीचर भी एआई टूल द्वारा बहुत तेजी से किया जाता है, कुछ सेकंड लंबे वीडियो के लिए भी एक मिनट से भी कम समय लगता है।
तुओई ट्रे अखबार से बात करते हुए, वीनेटवर्क साइबर सुरक्षा कंपनी में अनुसंधान और विकास टीम के प्रमुख श्री गुयेन किम थो ने "डीपफेक" शब्द का विश्लेषण किया, जो कृत्रिम बुद्धिमत्ता का उपयोग करके बनाए गए नकली वीडियो और छवियों को संदर्भित करता है, जिनका उद्देश्य दर्शकों को यह विश्वास दिलाना है कि वे वास्तविक हैं।
डीपफेक तकनीक किसी व्यक्ति के चेहरे और आवाज के डेटा का विश्लेषण करने और उस व्यक्ति के समान दिखने वाली नकली सामग्री बनाने के लिए न्यूरल नेटवर्क जैसे डीप लर्निंग मॉडल का उपयोग करती है।
"शक्तिशाली एल्गोरिदम की बदौलत, दुर्भावनापूर्ण तत्व संवेदनशील वीडियो (जैसे, सेक्स वीडियो, पोर्नोग्राफी) पर पीड़ितों के चेहरों को सुपरइम्पोज़ कर सकते हैं या नकली नग्न तस्वीरें बनाने के लिए छवियों को संपादित कर सकते हैं।"
श्री थो ने कहा, "इंटरनेट पर डीपफेक सॉफ्टवेयर और एप्लिकेशन अब बहुत आम हो गए हैं, जिनमें मोबाइल ऐप, ओपन-सोर्स सॉफ्टवेयर या मुफ्त ऑनलाइन सेवाएं भी शामिल हैं - जिससे किसी के लिए भी नकली वीडियो और तस्वीरें बनाने के उपकरण तक पहुंचना आसान हो गया है, इसलिए लोगों को सतर्क रहने की जरूरत है।"
"सेक्स चैट" से दूर रहें।
कई घोटाले ऑनलाइन लोगों से दोस्ती करने से शुरू होते हैं और फिर पीड़ितों को "सेक्स चैट" या संवेदनशील तस्वीरें भेजने के लिए लुभाते हैं। इसलिए, उपयोगकर्ताओं को किसी भी तरह के वादे या धमकियों के बावजूद, ऑनलाइन जान-पहचान वाले लोगों को निजी तस्वीरें या वीडियो बिल्कुल नहीं भेजने चाहिए।
हमेशा याद रखें कि आप जो भी सामग्री साझा करते हैं (यहां तक कि निजी संदेशों के माध्यम से भी), उसे रिकॉर्ड किया जा सकता है (स्क्रीनशॉट, वीडियो) और फिर संपादित करके आपके खिलाफ इस्तेमाल किया जा सकता है।
अगर आप वीडियो कॉल कर रहे हैं, तो अजनबियों द्वारा संवेदनशील सामग्री पेश करने से सावधान रहें – यह एक नकली स्क्रीन हो सकती है या वे आपकी रिकॉर्डिंग कर रहे हो सकते हैं।
साइबर सुरक्षा विशेषज्ञ उपयोगकर्ताओं को सलाह देते हैं कि वे केवल ऑनलाइन बातचीत के आधार पर किसी पर भी भरोसा करने से पूरी तरह बचें और कोई भी संवेदनशील जानकारी साझा करने से पहले दूसरे पक्ष की पहचान और इरादों को सत्यापित करें।
इसके अलावा, यदि आपको ब्लैकमेल के लिए "नग्न" तस्वीरों को जारी करने के बारे में कोई धमकी भरा संदेश या कॉल प्राप्त होता है, तो आपको डरने या पैसे ट्रांसफर करने में जल्दबाजी करने की आवश्यकता नहीं है।
विशेषज्ञों के अनुसार, पैसे देने से यह गारंटी नहीं मिलती कि अपराधी वीडियो को हटा देंगे; वे और अधिक पैसे की मांग कर सकते हैं या फिर से उस सामग्री को ऑनलाइन अपलोड कर सकते हैं।
अपराधियों की मांगों का पालन करने के बजाय, उपयोगकर्ताओं को सबूत (संदेश, फोन नंबर, संपर्क खाते, धमकी भरी सामग्री आदि) एकत्र करने चाहिए और तुरंत इसकी सूचना निकटतम पुलिस स्टेशन को देनी चाहिए या समय पर सहायता के लिए सार्वजनिक सुरक्षा मंत्रालय के VNeID एप्लिकेशन के माध्यम से घटना की रिपोर्ट करनी चाहिए।
हम उनकी पहचान कैसे कर सकते हैं?
श्री गुयेन किम थो के अनुसार, असली और डीपफेक छवियों और वीडियो के बीच अंतर करना दिन-ब-दिन मुश्किल होता जा रहा है, लेकिन फिर भी कुछ पहचान के संकेत और उपकरण मौजूद हैं जो इसमें मदद कर सकते हैं।
उपयोगकर्ता इसे मैन्युअल रूप से देख सकते हैं, क्योंकि डीपफेक सामग्री में कभी-कभी दृश्य और श्रव्य विसंगतियां होती हैं।
उदाहरण के लिए, एक मिश्रित छवि में चेहरे और शरीर के बीच शोर और रंग की विसंगतियां दिखाई दे सकती हैं। एक नकली वीडियो में ऑडियो और वीडियो का मेल न होना (होंठों की हरकत का भाषण से मेल न खाना) या चेहरे के भावों का कठोर और अप्राकृतिक लगना जैसी समस्याएं हो सकती हैं।
इससे पहले, कुछ डीपफेक वीडियो में पात्रों को पलकें झपकाते हुए नहीं दिखाया गया था, या उनके चेहरों पर प्रकाश और छाया पृष्ठभूमि से मेल नहीं खाती थी - ये इस बात के संकेत थे कि वीडियो को संपादित किया गया था।
हालांकि तकनीक में सुधार हो रहा है (उदाहरण के लिए, नए डीपफेक में यथार्थवादी पलक झपकाने की हरकतें शामिल की गई हैं), फिर भी समझदार दर्शक वीडियो और तस्वीरों में कुछ अतार्किक विवरण देख सकते हैं।
शोधकर्ता अब डीपफेक के निशानों का स्वचालित रूप से पता लगाने के लिए विभिन्न एल्गोरिदम विकसित कर रहे हैं।
कृत्रिम बुद्धिमत्ता (एआई) द्वारा निर्मित सामग्री अक्सर प्रत्येक पिक्सेल पर एक अद्वितीय "डिजिटल फिंगरप्रिंट" छोड़ देती है जिसे मशीन पहचान सकती है।
उदाहरण के लिए, इंटेल ने पहला रीयल-टाइम डीपफेक डिटेक्टर पेश किया है, जो वीडियो का विश्लेषण करने और यह निर्धारित करने में सक्षम है कि उसमें मौजूद पात्र वास्तविक लोग हैं या एआई द्वारा उत्पन्न किए गए हैं।
इसके अतिरिक्त, कुछ वेबसाइटें उपयोगकर्ताओं को वीडियो और फ़ोटो अपलोड करने की अनुमति देती हैं ताकि उनकी प्रामाणिकता की जाँच की जा सके (उदाहरण के लिए, डीपवेयर, सेंसिटी एआई...)। ये सिस्टम नई डीपफेक तकनीकों के साथ तालमेल बनाए रखने के लिए लगातार अपडेट किए जाते हैं।
विशेष रूप से, उपयोगकर्ता किसी संवेदनशील वीडियो या छवि का सामना करने पर स्रोत और संदर्भ की जांच कर सकते हैं, क्योंकि कई डीपफेक वीडियो सोशल मीडिया पर फर्जी खातों या बॉट्स के माध्यम से फैलाए जाते हैं।
"यदि किसी व्यक्ति के बारे में संवेदनशील सामग्री किसी अनौपचारिक स्रोत या गुमनाम खाते से आती है, तो उसकी प्रामाणिकता पर संदेह किया जाना चाहिए। यह सत्यापित करने के लिए कि क्या वास्तव में उस व्यक्ति ने ही ऐसा किया है, सामग्री में दिखाए गए व्यक्ति से सीधे संपर्क करने का प्रयास करना उचित हो सकता है।"
इसके अलावा, इस तरह की परियोजनाएं छवियों और वीडियो में निर्माण के समय से ही प्रमाणीकरण जानकारी (डिजिटल हस्ताक्षर) को शामिल करने को बढ़ावा दे रही हैं, जिससे मूल सामग्री और संपादित सामग्री के बीच अंतर करने में मदद मिलती है। श्री थो ने कहा, "भविष्य में, उपयोगकर्ता इन प्रमाणीकरण चिह्नों का उपयोग करके विश्वसनीय सामग्री की पहचान कर सकेंगे।"
आत्मरक्षा के लिए 5 सुझाव
1. संवेदनशील और निजी तस्वीरों और वीडियो (विशेषकर नग्न तस्वीरें, पारिवारिक तस्वीरें और बच्चों की तस्वीरें) साझा करने को सीमित करें।
2. अपने सोशल मीडिया अकाउंट को प्राइवेट रखें (केवल भरोसेमंद लोगों के साथ ही शेयर करें)।
3. सार्वजनिक सोशल मीडिया पर बहुत अधिक व्यक्तिगत जानकारी (पूरा नाम, फोन नंबर, पता आदि) देने से बचें।
4. हैकिंग से बचने के लिए अपने खातों के लिए मजबूत पासवर्ड सेट करें और दो-कारक प्रमाणीकरण सक्षम करें।
5. नियमित रूप से Google पर अपने नाम और छवि की खोज करें (या Google इमेज या TinEye जैसे रिवर्स इमेज सर्च टूल का उपयोग करें) यह देखने के लिए कि क्या आपकी कोई भी तस्वीर अवैध रूप से पोस्ट की गई है, और तुरंत उन्हें हटाने का अनुरोध करें।
स्रोत: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm






टिप्पणी (0)