ये वो बदमाश लोग हैं जो आर्टिफिशियल इंटेलिजेंस (एआई) तकनीक का इस्तेमाल करके आम लोगों के चेहरे और शरीर को एडिट करके उन्हें विकलांग बना देते हैं, फिर दुखद कहानियाँ गढ़कर उत्पाद बेचते हैं या मदद की गुहार लगाते हैं। इनका एकमात्र लक्ष्य अवैध मुनाफ़े के लिए समुदाय की करुणा का फ़ायदा उठाना है।

परिष्कृत तरकीबें
एक आम मामला जिसने सार्वजनिक आक्रोश पैदा किया, वह था एनएल नाम का एक टिकटॉक चैनल, जिसने एक महिला के दोनों हाथ कटे होने के बावजूद, अपने छोटे बच्चों की परवरिश के लिए ऑनलाइन उत्पाद बेचने की कोशिश करते हुए, वीडियो की एक श्रृंखला पोस्ट की। क्लिप में, महिला एक साधारण कमरे में, साधारण कपड़े पहने, अपने कटे हुए हाथ से उत्पादों का परिचय देती हुई दिखाई दी, जिससे दर्शक भावुक और सहानुभूतिपूर्ण हो गए। कई लोगों ने बिना किसी हिचकिचाहट के उस महिला को फ़ॉलो किया, व्यापक रूप से शेयर किया, और यहाँ तक कि कठिनाइयों से उबरने में मदद करने के लिए उत्पाद भी मँगवाए। हालाँकि, जब वीडियो वायरल हुए, तो ऑनलाइन समुदाय को एहसास हुआ कि यह वास्तव में एक सामान्य सेल्सगर्ल की तस्वीर थी, जिसे एआई तकनीक से संपादित करके एक वास्तविक विकलांग व्यक्ति जैसा दिखाया गया था।
दया की भावना जगाने की चाल एक ऐसा जाल बन गई है जो कई लोगों को पैसे ट्रांसफर करने या ऑर्डर देने के लिए तैयार कर देती है क्योंकि उन्हें लगता है कि वे किसी कमज़ोर और वंचित व्यक्ति की मदद कर रहे हैं। बो दे वार्ड ( हनोई ) के न्गोक लाम स्ट्रीट निवासी श्री डांग मिन्ह क्वांग ने बताया: "मेरी माँ ने एक कटे हुए हाथ वाली महिला द्वारा सामान बेचने वाली क्लिप पर विश्वास कर लिया, इसलिए उन्हें दुख हुआ और उन्होंने उस व्यक्ति द्वारा बेचे जा रहे कुछ उत्पाद ऑर्डर कर दिए। जब उन्हें सच्चाई पता चली कि वह विकलांग व्यक्ति सिर्फ़ कृत्रिम बुद्धिमत्ता द्वारा बनाई गई एक छवि है, तो उन्हें बहुत दुख हुआ और उन्हें बुरा लगा।"
क्वांग की माँ की कहानी अनोखी नहीं है। सैकड़ों अन्य लोग भी इसी तरह धोखा खा चुके हैं। जब दयालुता का फायदा उठाया जाता है, तो लोग धीरे-धीरे विश्वास खो देते हैं और मदद के लिए सच्ची पुकार से हिचकिचाने लगते हैं। और इसका दर्दनाक परिणाम यह होता है कि कमज़ोर लोग सचमुच बहुत आहत होते हैं। अपने निजी फेसबुक पेज पर, गुयेन सिन ने सुश्री ट्रान थी नगा ( फु थो प्रांत में 36 वर्षीय) का मामला साझा किया - जो "नगा टिक कुक" चैनल की मालिक हैं और विकलांग हैं (2024 के अंत में, तीव्र मायोकार्डिटिस के कारण, उन्हें अपनी जान बचाने के लिए अपने दोनों हाथ और पैर काटने पड़े), जो कई लोगों को उनकी जीने की आशावादी इच्छाशक्ति से नियमित रूप से प्रेरित करने के लिए जानी जाती हैं। हालाँकि, कृत्रिम बुद्धिमत्ता (AI) का उपयोग करके विकलांग लोगों का रूप धारण करने के कई मामले सामने आने के बाद, सुश्री नगा पर कृत्रिम बुद्धिमत्ता का उपयोग करके विकलांग लोगों का रूप धारण करने का संदेह हुआ।
हाल ही में लाइवस्ट्रीम में, सुश्री नगा कई बार परेशान हुईं जब कुछ सोशल मीडिया उपयोगकर्ताओं ने उनसे बार-बार "अपना हाथ उठाने" या "क्रॉल" करने के लिए कहा ताकि यह साबित हो सके कि वह वास्तव में विकलांग हैं। इन अनुचित और क्रूर अनुरोधों ने उन्हें बहुत आहत किया। "एक्टिव नगा" की कहानी इस बात का एक हृदयविदारक प्रमाण है कि तकनीक का दुरुपयोग कितना हानिकारक हो सकता है।
AI-जनित नकली सामग्री पहचान कौशल
लोक सुरक्षा मंत्रालय के अनुसार, 2024 में वियतनाम में 6,000 से ज़्यादा ऑनलाइन धोखाधड़ी के मामले दर्ज किए गए, जिससे लगभग 12,000 अरब वियतनामी डोंग (VND) का अनुमानित नुकसान हुआ। 2025 के सिर्फ़ 8 महीनों में ही लगभग 1,500 ऑनलाइन धोखाधड़ी के मामले सामने आए। यह संख्या हमारे देश में, जहाँ 78 मिलियन से ज़्यादा इंटरनेट उपयोगकर्ता और 72 मिलियन सोशल नेटवर्क उपयोगकर्ता हैं, उच्च तकनीक वाले अपराध के ख़तरनाक स्तर को साफ़ तौर पर दर्शाती है। साइबरस्पेस तेज़ी से जटिल होती धोखाधड़ी की तरकीबों के लिए एक उपजाऊ ज़मीन बनता जा रहा है, जिसमें नकली सामग्री बनाने के लिए AI का इस्तेमाल आज सबसे बड़ा ख़तरा है।
इस भयावह वास्तविकता को देखते हुए, अधिकारी और साइबर सुरक्षा विशेषज्ञ सलाह देते हैं कि लोगों को नकली सामग्री की पहचान करने के लिए खुद को ज्ञान और कौशल से लैस करना होगा। लॉन्ग बिएन वार्ड पुलिस (हनोई) के युवा संघ के उप सचिव गुयेन नहत हा ने कहा कि लोगों को आधिकारिक सूचना स्रोतों की नियमित रूप से निगरानी करनी चाहिए, तकनीक और धोखाधड़ी के नए रूपों के बारे में अपने ज्ञान को लगातार अद्यतन करना चाहिए। विशेष रूप से, उन्हें हमेशा सतर्क रहना चाहिए और बुनियादी सिद्धांतों को याद रखना चाहिए, जैसे कि सूचना स्रोतों की सावधानीपूर्वक जाँच करना, असत्यापित स्रोतों को व्यक्तिगत जानकारी न देना, अजीब लिंक तक न पहुँचना और असत्यापित खातों में धन हस्तांतरित न करना।
साइबर सुरक्षा विशेषज्ञों के अनुसार, एआई-जनरेटेड वीडियो की पहचान करने के लिए, उपयोगकर्ताओं को छवि के विवरण, चेहरे की गतिविधियों, अंगों या ध्वनियों का ध्यानपूर्वक निरीक्षण करना चाहिए। खाली आँखें, अप्राकृतिक गतिविधियाँ, विलंबित भाषण, या बेमेल होंठ जैसी हरकतें अक्सर डीपफेक तकनीक के संकेत होते हैं।
इसके अलावा, चैनल द्वारा पोस्ट की गई जानकारी की जाँच करना, टिप्पणियाँ पढ़ना और गतिविधि इतिहास देखना भी विश्वसनीयता का आकलन करने के आसान तरीके हैं। इसके साथ ही, उपयोगकर्ताओं को विश्वास करने से पहले उसकी पुष्टि करने की आदत डालनी होगी। कोई भी वीडियो कितना भी भावुक क्यों न हो, उसे जल्दबाजी में शेयर या समर्थन नहीं करना चाहिए।
विशेषज्ञों ने सोशल मीडिया प्लेटफ़ॉर्म से सेंसरशिप को मज़बूत करने, विकलांग लोगों का भेष बदलने के लिए एआई का इस्तेमाल करने वाली सामग्री की पहचान करने और उल्लंघन करने वाले अकाउंट्स से सख्ती से निपटने का भी आह्वान किया। अधिकारियों को एआई इमेज और सामग्री के इस्तेमाल पर जल्द ही स्पष्ट नियम जारी करने की भी ज़रूरत है, ताकि यह सुनिश्चित हो सके कि तकनीक बुरे लोगों द्वारा अनैतिक व्यवहार का साधन न बने।
स्रोत: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






टिप्पणी (0)