एसजीजीपी 20/10/2023 19:13
अब मनोरंजन के उद्देश्यों के लिए उपयोग न किए जाने वाले डीपफेक का साइबर अपराधियों द्वारा धोखाधड़ी के एक उपकरण के रूप में तेजी से दुरुपयोग किया जा रहा है... और डीपफेक घोटालों की संख्या में वृद्धि होगी और वे अधिक विविध और परिष्कृत होते जाएंगे।
| कैस्पर्सकी का अनुमान है कि डीपफेक घोटालों की संख्या बढ़ेगी और वे अधिक विविध और परिष्कृत होते जाएंगे। |
डार्कनेट फोरमों पर शोध करने के बाद, जहां साइबर अपराधी अक्सर सक्रिय रहते हैं, कैस्पर्सकी ने निष्कर्ष निकाला कि कई अपराधी धोखाधड़ी के लिए डीपफेक का उपयोग कर रहे हैं, इस हद तक कि बाजार में वर्तमान में उपलब्ध डीपफेक सॉफ्टवेयर की आपूर्ति की तुलना में मांग कहीं अधिक है।
कैस्पर्सकी के विशेषज्ञों का अनुमान है कि डीपफेक घोटालों की संख्या बढ़ेगी और वे अधिक विविध और परिष्कृत होते जाएंगे। इनमें उच्च गुणवत्ता वाले, पेशेवर रूप से निर्मित नकली वीडियो उपलब्ध कराने से लेकर सोशल मीडिया पर नकली लाइव स्ट्रीम में मशहूर हस्तियों की छवियों का उपयोग करना और पीड़ितों द्वारा भेजी गई राशि को दोगुना करने का वादा करना शामिल है।
हालांकि अपराधी दुर्भावनापूर्ण उद्देश्यों के लिए एआई का दुरुपयोग कर रहे हैं, फिर भी व्यक्ति और व्यवसाय डीपफेक की पहचान करने और सफल घोटालों की संभावना को कम करने के लिए एआई का लाभ उठा सकते हैं। कैस्पर्सकी उपयोगकर्ताओं को डीपफेक घोटालों से बचाने के लिए समाधान साझा करता है:
एआई कंटेंट डिटेक्शन टूल्स: ये एआई-जनरेटेड कंटेंट डिटेक्शन सॉफ्टवेयर प्रोग्राम उन्नत एआई एल्गोरिदम का उपयोग करके यह विश्लेषण और निर्धारित करते हैं कि इमेज, वीडियो और ऑडियो फाइलों को किस हद तक संपादित किया गया है।
एआई कंटेंट पर वॉटरमार्क लगाया जाता है: वॉटरमार्क छवियों, वीडियो आदि में पहचान चिह्न के रूप में काम करते हैं, जिससे लेखकों को अपने एआई कार्यों के कॉपीराइट की रक्षा करने में मदद मिलती है। हालांकि, यह उपकरण डीपफेक के खिलाफ एक हथियार बन सकता है क्योंकि यह एआई बनाने वाले प्लेटफॉर्म के स्रोत का पता लगाने में मदद कर सकता है।
सामग्री की ट्रेसबिलिटी: चूंकि एआई नई सामग्री बनाने के लिए विभिन्न स्रोतों से भारी मात्रा में डेटा एकत्र करता है, इसलिए इस विधि का उद्देश्य उस सामग्री के मूल का पता लगाना है।
वीडियो सत्यापन: यह वह प्रक्रिया है जिसके द्वारा यह सत्यापित किया जाता है कि वीडियो सामग्री में कोई बदलाव नहीं किया गया है। वीडियो निर्माता इस प्रक्रिया को लेकर सबसे अधिक चिंतित रहते हैं।
"डीपफेक महिलाओं और समाज के लिए एक बुरे सपने जैसा बन गया है। साइबर अपराधी।" "वर्तमान में, वे कृत्रिम बुद्धिमत्ता (एआई) का उपयोग करके पीड़ितों के चेहरों को अश्लील छवियों और वीडियो पर चिपका रहे हैं, साथ ही दुष्प्रचार अभियानों में भी इसका इस्तेमाल कर रहे हैं। इन तरीकों का उद्देश्य गलत सूचना फैलाकर या संगठनों या व्यक्तियों की प्रतिष्ठा को नुकसान पहुंचाकर जनमत को प्रभावित करना है। हम जनता से इस खतरे के प्रति सतर्क रहने का आग्रह करते हैं," कैस्पर्सकी वियतनाम की क्षेत्रीय निदेशक सुश्री वो डुओंग तू डिएम ने कहा।
[विज्ञापन_2]
स्रोत







टिप्पणी (0)