डीपफेक अब एक बड़ी चिंता का विषय है क्योंकि प्रौद्योगिकी आधारित घोटालों की संख्या लगातार बढ़ रही है।
डार्कनेट मंचों पर शोध करने के बाद, जहां साइबर अपराधी अक्सर काम करते हैं, सुरक्षा विशेषज्ञों ने पाया कि धोखाधड़ी के लिए डीपफेक का उपयोग करने वाले इतने सारे अपराधी थे कि मांग वर्तमान में बाजार में डीपफेक सॉफ्टवेयर की आपूर्ति से कहीं अधिक थी।
चूंकि मांग आपूर्ति से अधिक है, इसलिए कैस्परस्की विशेषज्ञों का अनुमान है कि डीपफेक घोटाले और अधिक विविध और परिष्कृत रूपों के साथ बढ़ेंगे: उच्च गुणवत्ता वाले प्रतिरूपण वीडियो की पेशकश से लेकर फर्जी सोशल मीडिया लाइवस्ट्रीम में सेलिब्रिटी छवियों का उपयोग करने तक, पीड़ित द्वारा भेजी गई राशि का दोगुना भुगतान करने का वादा करना।
रेगुला सूचना संदर्भ प्रणाली के अनुसार, दुनिया भर में 37% व्यवसायों को डीपफेक वॉयस धोखाधड़ी का सामना करना पड़ा है और 29% डीपफेक वीडियो के शिकार हुए हैं।
यह तकनीक वियतनाम में साइबर सुरक्षा के लिए खतरा बन गई है, जहां साइबर अपराधी अक्सर नकली वीडियो कॉल का उपयोग करके लोगों का रूप धारण कर उनके रिश्तेदारों और दोस्तों से पैसे उधार लेते हैं।
डीपफेक वीडियो कॉल केवल एक मिनट तक चल सकती है, जिससे पीड़ितों के लिए असली और नकली के बीच अंतर करना मुश्किल हो जाता है।
डीपफेक धीरे-धीरे परिष्कृत ऑनलाइन घोटालों में एक "दुःस्वप्न" बनता जा रहा है।
डीपफेक महिलाओं और समाज के लिए एक बुरा सपना बन गया है। साइबर अपराधी आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल करके पीड़ितों के चेहरे अश्लील तस्वीरों और वीडियो में डाल रहे हैं, साथ ही दुष्प्रचार अभियानों में भी।
इन फॉर्मों का उद्देश्य गलत जानकारी फैलाकर जनता की राय को प्रभावित करना है, यहां तक कि संगठनों या व्यक्तियों की प्रतिष्ठा को भी नुकसान पहुंचाना है, ”कैस्परस्की की वियतनाम क्षेत्रीय निदेशक सुश्री वो डुओंग तु दीम ने कहा।
यद्यपि अपराधियों द्वारा दुर्भावनापूर्ण उद्देश्यों के लिए एआई का दुरुपयोग किया जा रहा है, फिर भी व्यक्ति और व्यवसाय डीपफेक की पहचान करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग कर सकते हैं, जिससे घोटालों की सफलता की संभावना कम हो जाती है।
तदनुसार, उपयोगकर्ताओं के पास स्वयं को घोटालों से बचाने के लिए कुछ उपयोगी समाधान होंगे, जैसे कि एआई-जनरेटेड कंटेंट डिटेक्शन सॉफ्टवेयर (छवियों/वीडियो/ध्वनि के संपादन के स्तर का विश्लेषण और निर्धारण करने के लिए उन्नत एल्गोरिदम का उपयोग करना)।
डीपफेक वीडियो के लिए, ऐसे उपकरण उपलब्ध हैं जो बेमेल मुँह की हरकतों और बोली का पता लगा सकते हैं। कुछ प्रोग्राम इतने शक्तिशाली होते हैं कि वीडियो के रिज़ॉल्यूशन का विश्लेषण करके त्वचा के नीचे असामान्य रक्त प्रवाह का पता लगा सकते हैं, क्योंकि हृदय द्वारा रक्त पंप करने पर मानव शिराओं का रंग बदल जाता है।
इसके अलावा, इसमें एक वॉटरमार्क भी है जो छवियों, वीडियो आदि में पहचान चिह्न के रूप में कार्य करता है और लेखकों को एआई उत्पादों के कॉपीराइट की सुरक्षा में मदद करता है। यह सुविधा डीपफेक के खिलाफ एक हथियार बन सकती है क्योंकि यह कृत्रिम बुद्धिमत्ता बनाने वाले प्लेटफॉर्म की उत्पत्ति का पता लगाने में मदद करती है। तकनीकी ज्ञान के स्तर वाले उपयोगकर्ता सामग्री की उत्पत्ति का पता लगाने का एक तरीका खोज सकते हैं ताकि तुलना की जा सके कि मूल डेटा को एआई के "हाथों" द्वारा कैसे संपादित किया गया है।
वर्तमान में, कुछ उभरती हुई तकनीकें वीडियो में निर्धारित समय अंतराल पर हैश मान डालने के लिए एन्क्रिप्शन एल्गोरिदम का उपयोग करती हैं। यदि वीडियो संपादित किया गया है, तो हैश मान बदल जाएगा और वहाँ से उपयोगकर्ता यह सत्यापित कर सकते हैं कि सामग्री के साथ छेड़छाड़ की गई है या नहीं।
वीडियो में विसंगतियों को खोजने के बारे में अतीत में कुछ ट्यूटोरियल रहे हैं, उदाहरण के लिए, रंग विचलन, मांसपेशी समूहों की अप्राकृतिक गतिविधियां, आंखें... हालांकि, एआई अधिक स्मार्ट हो रहा है इसलिए ये मान हमेशा सही परिणाम नहीं देते हैं।
वीडियो की विश्वसनीयता की पुष्टि करने की प्रक्रिया अब नंगी आंखों पर आधारित नहीं है, बल्कि इसके लिए नकली सामग्री को रोकने और उसका पता लगाने के उद्देश्य से बनाए गए तकनीकी उपकरणों की आवश्यकता है।
खान लिन्ह
[विज्ञापन_2]
स्रोत
टिप्पणी (0)