Vietnam.vn - Nền tảng quảng bá Việt Nam

ब्लैकमेल के लिए संवेदनशील छवियों को संयोजित करने हेतु AI का उपयोग

सोशल नेटवर्क पर पोस्ट की गई आभासी तस्वीर से, बुरे लोग कृत्रिम बुद्धिमत्ता (एआई) उपकरणों का उपयोग करके सेक्सी, यहां तक ​​कि नग्न तस्वीरें बना सकते हैं, या पीड़ित को बदनाम करने और ब्लैकमेल करने के लिए संवेदनशील वीडियो में यथार्थवादी चेहरे डाल सकते हैं।

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

बुरे लोग दूसरों को बदनाम करने और ब्लैकमेल करने के लिए संवेदनशील फ़ोटो और वीडियो को जोड़ने के लिए AI का उपयोग कर सकते हैं - फोटो: AI ड्राइंग

अतीत में, जब एक व्यक्ति के चेहरे को दूसरे व्यक्ति के शरीर पर काटने और चिपकाने की तकनीक की बात होती थी, तो लोग अक्सर फोटोशॉप या विशेष फोटो संपादन सॉफ्टवेयर का उपयोग करते थे - जो कि श्रमसाध्य होता है और नग्न आंखों से आसानी से पहचाना जा सकता है।

अब एआई उपकरणों के साथ, लोग "कुछ नोट्स" में यह काम बहुत आसानी से कर सकते हैं, लेकिन इसे नंगी आंखों से पहचानना आसान नहीं है।

ब्लैकमेल के लिए चेहरा बदलने वाला सेक्स वीडियो

कार्य संबंधों के कारण, श्री एच. (हो ची मिन्ह सिटी में एक व्यवसाय के निदेशक) अक्सर सोशल नेटवर्क पर बातचीत करते हैं।

एक बार, एक युवती से उसकी दोस्ती हुई और उसने उसके काम के बारे में पूछा। कुछ देर एक-दूसरे के बारे में पूछने, बातचीत करने, काम और निजी ज़िंदगी के बारे में बातें करने के बाद, दोनों एक-दूसरे के काफी करीब लगने लगे।

दोनों के बीच बहुत स्नेह भरे शब्दों वाले कई टेक्स्ट संदेश भी आए, साथ ही एक-दूसरे को तस्वीरें भी भेजी गईं और एक-दूसरे से मिलने के लिए वीडियो कॉल भी किए गए।

एक दिन, श्री एच. को अचानक एक आदमी का फ़ोन आया जिसने खुद को उस लड़की का पति बताया। श्री एच. के ख़िलाफ़ एक "पूर्व-निवारक" कार्रवाई के बाद, "पति" ने मुआवज़े की रक़म ट्रांसफर करने की माँग की, वरना वह उनकी चैट और सेक्स वीडियो की तस्वीरें अपने रिश्तेदारों और बिज़नेस पार्टनर्स को भेज देगा।

फिर श्री एच. को उनके "पति" द्वारा उनका और दूसरी लड़की का एक सेक्स वीडियो दिखाया गया, साथ ही दोनों के बीच एक वीडियो कॉल और अंतरंग टेक्स्ट संदेश भी रिकॉर्ड किए गए...

"मैं उस लड़की से कभी नहीं मिला, इसलिए मुझे यकीन है कि सेक्स वीडियो एक फोटोशॉप्ड इमेज है," श्री एच. ने पुष्टि की। हालाँकि, सेक्स वीडियो में लड़की का चेहरा और उनके वीडियो कॉल में लड़की का चेहरा एक ही है, साथ ही स्नेह भरे टेक्स्ट मैसेज की एक तस्वीर भी है, जिससे श्री एच. को अपनी प्रतिष्ठा बचाने के लिए अपने "पति" को कई बार पैसे ट्रांसफर करने पड़े।

टुओई ट्रे की जाँच के अनुसार, श्री एच. को एक सुनियोजित तरीके से एक आदर्श परिदृश्य के तहत ठगा गया। इस घोटाले में, श्री एच. को डीपफेक द्वारा दो बार बेवकूफ़ बनाया गया। पहली बार वीडियो कॉल के ज़रिए और दूसरी बार सेक्स वीडियो के ज़रिए।

गौर करने वाली बात यह है कि सेक्स वीडियो में, मिस्टर एच. का चेहरा इतनी कुशलता से ट्रांसप्लांट किया गया था कि दर्शकों को यकीन ही नहीं हो रहा था कि यह एक फेस ट्रांसप्लांटेशन वीडियो है। एक एआई विशेषज्ञ ने तुओई ट्रे को बताया कि बदमाशों ने एक नए एआई टूल का इस्तेमाल किया था जिससे वीडियो में चेहरे बिल्कुल असली जैसे ट्रांसप्लांट किए जा सकते थे।

चेहरा बदलने वाले AI उपकरण प्रचुर मात्रा में उपलब्ध हैं

वर्तमान में ऐसे कई एआई अनुप्रयोग उपकरण हैं जिनमें किसी भी व्यक्ति को वांछित चेहरे के साथ बनाने और वांछित चेहरे को किसी अन्य व्यक्ति के शरीर पर विलय करने जैसी विशेषताएं हैं।

इनमें ऐसे उपकरण भी शामिल हैं, जिनमें ऐसी विशेषताएं हैं जो गलत उद्देश्यों की पूर्ति करती हैं, जैसे कि फोटो में व्यक्ति के "कपड़े उतारकर" सामान्य फोटो को नग्न फोटो में बदलना, या वीडियो में किसी व्यक्ति के चेहरे को वांछित चेहरे से बदलना...

इनमें से अधिकांश AI उपकरण परीक्षण के लिए उपलब्ध हैं, लेकिन इनके लिए भुगतान करने पर आपको बहुत तेजी से परिवर्तन के साथ पूर्ण सुविधाएं मिलेंगी।

उदाहरण के लिए, फेस-टू-बॉडी फीचर के साथ, उपयोगकर्ताओं को केवल दो संबंधित फोटो अपलोड करने होंगे और परिणाम के लिए कुछ सेकंड इंतजार करना होगा।

या सामान्य तस्वीरों से नग्न तस्वीरें बनाने की सुविधा के साथ, एआई उपकरण इसे बहुत तेज़ी से कर सकता है, केवल कुछ दर्जन सेकंड में, दर्शकों को चौंका देता है।

यहां तक ​​कि सेक्स वीडियो में चेहरे बदलने की सुविधा भी, एआई टूल बहुत तेज़ी से करता है, कुछ सेकंड लंबे वीडियो के लिए एक मिनट से भी कम समय लेता है।

तुओई ट्रे के साथ बात करते हुए, वीनेटवर्क साइबर सुरक्षा कंपनी के अनुसंधान और विकास टीम के प्रमुख श्री गुयेन किम थो ने डीपफेक शब्द का विश्लेषण किया, जो दर्शकों को यह सोचने के लिए कि वे वास्तविक हैं, एआई का उपयोग करके बनाए गए नकली वीडियो और छवियों को संदर्भित करता है।

डीपफेक तकनीक किसी व्यक्ति के चेहरे और आवाज के डेटा का विश्लेषण करने और उस व्यक्ति की तरह दिखने वाली नकली सामग्री बनाने के लिए न्यूरल नेटवर्क जैसे गहरे शिक्षण मॉडल का उपयोग करती है।

"शक्तिशाली एल्गोरिदम की बदौलत, बुरे लोग पीड़ित के चेहरे को संवेदनशील वीडियो (उदाहरण के लिए, "बिस्तर" वीडियो, पोर्न) में डाल सकते हैं या नकली नग्न तस्वीरें बनाने के लिए छवियों को संपादित कर सकते हैं।

श्री थो ने कहा, "डीपफेक सॉफ्टवेयर और एप्लीकेशन अब इंटरनेट पर बहुत लोकप्रिय हो गए हैं, यहां तक ​​कि मोबाइल एप्लीकेशन, ओपन सोर्स कोड या मुफ्त ऑनलाइन सेवाओं के साथ भी - जिससे किसी के लिए भी नकली वीडियो और फोटो बनाने के लिए टूल तक पहुंचना आसान हो गया है, इसलिए लोगों को सतर्क रहने की जरूरत है।"

"सेक्स चैट" से दूर रहें

कई घोटाले ऑनलाइन दोस्त बनाने और फिर शिकार को "सेक्स चैट" में फंसाने या संवेदनशील तस्वीरें भेजने से शुरू होते हैं। इसलिए, उपयोगकर्ताओं को उन लोगों को कभी भी निजी तस्वीरें या वीडियो नहीं भेजने चाहिए जिनसे वे केवल ऑनलाइन मिलते हैं, चाहे वे कितने भी वादे या धमकियाँ क्यों न दें।

हमेशा याद रखें कि साझा की गई कोई भी सामग्री (यहां तक ​​कि निजी संदेशों के माध्यम से भी) रिकॉर्ड की जा सकती है (स्क्रीनशॉट, वीडियो) और फिर उसे संपादित करके आपके खिलाफ इस्तेमाल किया जा सकता है।

यदि आप वीडियो कॉल करते हैं, तो उन अजनबियों से सावधान रहें जो संवेदनशील सामग्री मांगते हैं - हो सकता है कि वे नकली स्क्रीन हों या फिर वे रिकॉर्डिंग कर रहे हों।

साइबर सुरक्षा विशेषज्ञ उपयोगकर्ताओं को सलाह देते हैं कि वे केवल ऑनलाइन संपर्क के आधार पर किसी पर भी भरोसा न करें, तथा कोई भी संवेदनशील जानकारी साझा करने से पहले दूसरे व्यक्ति की पहचान और इरादों की पुष्टि कर लें।

इसके अलावा, यदि आपको ब्लैकमेल के लिए "हॉट" तस्वीरें जारी करने की धमकी वाला कोई टेक्स्ट संदेश या कॉल प्राप्त होता है, तो उपयोगकर्ताओं को डरने या धन हस्तांतरण करने में जल्दबाजी करने की आवश्यकता नहीं है।

विशेषज्ञों का कहना है कि भुगतान करने से यह गारंटी नहीं मिलती कि बदमाश वीडियो हटा देंगे; वे और अधिक मांग करते रहेंगे या सामग्री को ऑनलाइन पोस्ट कर देंगे।

अपराधियों के अनुरोधों का पालन करने के बजाय, उपयोगकर्ताओं को साक्ष्य (संदेश, फोन नंबर, संपर्क खाते, धमकी सामग्री ...) एकत्र करना चाहिए और तुरंत निकटतम पुलिस एजेंसी को रिपोर्ट करना चाहिए या समय पर सहायता के लिए सार्वजनिक सुरक्षा मंत्रालय के VNeID एप्लिकेशन के माध्यम से घटना की रिपोर्ट करनी चाहिए।

कैसे पहचानें?

श्री गुयेन किम थो के अनुसार, वास्तविक छवियों और वीडियो तथा डीपफेक के बीच अंतर करना कठिन होता जा रहा है, लेकिन अभी भी कुछ पहचान चिह्न और सहायक उपकरण मौजूद हैं।

उपयोगकर्ता मैन्युअल रूप से निरीक्षण कर सकते हैं, क्योंकि डीपफेक सामग्री में कभी-कभी छवि और ध्वनि में असामान्यताएं होती हैं।

उदाहरण के लिए, एक मिश्रित छवि में मिश्रित चेहरे और शरीर के बीच शोर या रंग का अंतर दिखाई दे सकता है। एक नकली वीडियो में ऑडियो और वीडियो में बेमेल (होंठों की हरकतें जो बोली से मेल नहीं खातीं) या चेहरे के भाव रूखे और अप्राकृतिक दिखाई दे सकते हैं।

इससे पहले, कुछ डीपफेक वीडियो में पात्रों की पलकें नहीं झपकती थीं, या चेहरे पर प्रकाश और छाया संदर्भ से मेल नहीं खाती थी - जो इस बात के संकेत थे कि वीडियो संपादित किया गया था।

यद्यपि प्रौद्योगिकी में सुधार हो रहा है (उदाहरण के लिए, नए डीपफेक में यथार्थवादी आंख झपकने की गतिविधियां जोड़ी गई हैं), फिर भी चौकस दर्शक वीडियो और फोटो में कुछ अतार्किक विवरण देख सकते हैं।

शोधकर्ता अब डीपफेक ट्रेस का स्वचालित रूप से पता लगाने के लिए कई एल्गोरिदम विकसित कर रहे हैं।

एआई-जनित सामग्री अक्सर प्रत्येक पिक्सेल में एक विशिष्ट "डिजिटल फिंगरप्रिंट" छोड़ती है जिसे मशीनें पहचान सकती हैं।

उदाहरण के लिए, इंटेल ने पहला रियल-टाइम डीपफेक डिटेक्टर पेश किया है, जो वीडियो का विश्लेषण करने और यह निर्धारित करने में सक्षम है कि उनमें मौजूद पात्र वास्तविक व्यक्ति हैं या एआई द्वारा उत्पन्न।

इसके अलावा, कुछ वेबसाइटें उपयोगकर्ताओं को वीडियो और फ़ोटो अपलोड करके उनकी प्रामाणिकता की जाँच करने की सुविधा देती हैं (उदाहरण के लिए, डीपवेयर, सेंसिटी एआई टूल्स...)। ये सिस्टम नई डीपफेक तकनीकों से निपटने के लिए लगातार अपडेट होते रहते हैं।

विशेष रूप से, उपयोगकर्ता किसी संवेदनशील वीडियो या छवि का सामना करते समय पोस्ट के स्रोत और संदर्भ की जांच कर सकते हैं क्योंकि कई डीपफेक वीडियो सोशल नेटवर्क पर फर्जी खातों या बॉट्स के माध्यम से फैलाए जाते हैं।

"यदि किसी व्यक्ति के बारे में संवेदनशील सामग्री किसी अनधिकृत स्रोत या अनाम खाते से आती है, तो उसकी प्रामाणिकता के बारे में संदेह रखें। आप सामग्री में दिखाए गए व्यक्ति से सीधे संपर्क करके यह सत्यापित कर सकते हैं कि उन्होंने वास्तव में ऐसा किया है।

इसके अलावा, इस तरह की परियोजनाएँ फ़ोटो और वीडियो में निर्माण के समय से ही प्रमाणीकरण जानकारी (डिजिटल हस्ताक्षर) को एम्बेड करने को बढ़ावा दे रही हैं, जिससे मूल सामग्री को संपादित सामग्री से अलग करने में मदद मिलती है। भविष्य में, उपयोगकर्ता विश्वसनीय सामग्री की पहचान करने के लिए इन प्रमाणीकरण चिह्नों का उपयोग कर सकेंगे," श्री थो ने कहा।

अपनी सुरक्षा के लिए 5 नोट्स

1. संवेदनशील, निजी फ़ोटो और वीडियो (विशेष रूप से नग्न फ़ोटो, पारिवारिक फ़ोटो, बच्चों की फ़ोटो) को साझा करना सीमित करें।

2. अपने सोशल मीडिया अकाउंट को निजी रखें (केवल विश्वसनीय लोगों के साथ साझा करें)।

3. सार्वजनिक सोशल नेटवर्क पर बहुत अधिक व्यक्तिगत जानकारी (पूरा नाम, फोन नंबर, पता...) न दें।

4. हैकिंग से बचने के लिए अपने खातों के लिए मजबूत पासवर्ड सेट करें और दो-चरणीय सत्यापन सक्षम करें।

5. नियमित रूप से गूगल पर अपना नाम और चित्र खोजें (या गूगल इमेज, टिनआई जैसे रिवर्स इमेज सर्च टूल का उपयोग करें) यह देखने के लिए कि क्या आपकी कोई तस्वीर बिना अनुमति के पोस्ट की गई है, और तुरंत उसे हटाने का अनुरोध करें।

और पढ़ें विषयों पर वापस जाएँ
गुण

स्रोत: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


टिप्पणी (0)

No data
No data

उसी श्रेणी में

हो ची मिन्ह सिटी: लुओंग नु होक लालटेन स्ट्रीट मध्य-शरद उत्सव के स्वागत में रंगीन है
मूर्तियों के रंगों के माध्यम से मध्य-शरद उत्सव की भावना को बनाए रखना
दुनिया के 50 सबसे खूबसूरत गांवों में वियतनाम का एकमात्र गांव खोजें
इस वर्ष पीले सितारों वाले लाल झंडे वाले लालटेन लोकप्रिय क्यों हैं?

उसी लेखक की

विरासत

आकृति

व्यापार

No videos available

समाचार

राजनीतिक प्रणाली

स्थानीय

उत्पाद