Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

डीपफेक वॉयस धोखाधड़ी अधिक से अधिक परिष्कृत होती जा रही है, क्या करें?

डीपफेक वॉयस तकनीक लोगों को वास्तविक लोगों के समान आवाजों की नकल करने की अनुमति देती है, जिसके कारण कई लोग परिचित आवाजों पर विश्वास करने के जाल में फंस जाते हैं।

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

डीपफेक आवाज से नकल करके ठगी की चाल

तेज़ी से विकसित हो रहे कृत्रिम बुद्धिमत्ता के युग में, आवाज़ - जिसे कभी प्रामाणिक प्रमाण माना जाता था - अब बदमाशों के हाथों में एक खतरनाक हथियार बन गई है। डीपफेक वॉयस तकनीक नकली आवाज़ों को असली लोगों से हूबहू मिलाने की अनुमति देती है, जिससे धोखाधड़ी और संपत्ति हड़पने के लिए परिष्कृत नकली कॉल किए जा सकते हैं।

डीपफेक आवाज डरावनी क्यों है?

डीपफेक वॉयस एक ऐसी तकनीक है जो कृत्रिम बुद्धिमत्ता (एआई) और मशीन लर्निंग का उपयोग करके एक नकली आवाज तैयार करती है जो वास्तविक व्यक्ति की आवाज के समान होती है।

टैकोट्रॉन, वेवनेट, इलेवनलैब्स जैसे आधुनिक मॉडलों या रिस्पीचर जैसे वॉयस क्लोनिंग प्लेटफार्मों के समर्थन से, धोखेबाजों को 95% विश्वसनीय डीपफेक बनाने के लिए केवल 3 - 10 सेकंड के वॉयस सैंपल की आवश्यकता होती है।

डीपफेक आवाजें विशेष रूप से खतरनाक हो जाती हैं, क्योंकि उनमें आवाजों की नकल करने की क्षमता होती है, उच्चारण, स्वर से लेकर प्रत्येक व्यक्ति की विशिष्ट बोलने की आदतों तक।

इससे पीड़ितों के लिए असली और नकली के बीच अंतर करना बहुत मुश्किल हो जाता है, खासकर जब आवाज उनके रिश्तेदारों, दोस्तों या वरिष्ठों की हो।

वॉइस माइनिंग भी आसान है, क्योंकि आजकल ज़्यादातर लोग टिकटॉक, सोशल मीडिया लाइवस्ट्रीम, पॉडकास्ट या ऑनलाइन मीटिंग जैसे प्लेटफ़ॉर्म के ज़रिए अपनी आवाज़ सार्वजनिक करते हैं। इससे भी ज़्यादा चिंताजनक बात यह है कि डीपफ़ेक आवाज़ें तस्वीरों या वीडियो की तरह कोई दृश्य निशान नहीं छोड़तीं, जिससे जाँच-पड़ताल मुश्किल हो जाती है और पीड़ितों को पैसे गंवाने का ख़तरा रहता है।

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

डीपफेक बनाने के लिए बस कुछ सेकंड का वॉयस सैंपल ही काफी है

डीपफेक वॉयस घोटाले तेजी से परिष्कृत होते जा रहे हैं, जिनमें अक्सर एक परिचित परिदृश्य का उपयोग किया जाता है: किसी आपातकालीन स्थिति में किसी परिचित का रूप धारण करके आतंक पैदा करना और पीड़ित पर तुरंत धन हस्तांतरित करने का दबाव बनाना।

वियतनाम में, एक माँ को उसके "बेटे" का फ़ोन आया जिसमें बताया गया कि उसका एक्सीडेंट हो गया है और उसे तुरंत पैसों की ज़रूरत है। ब्रिटेन में, एक कंपनी के निदेशक को अपने "बॉस" द्वारा फ़ोन पर पैसे ट्रांसफर करने का अनुरोध सुनने के बाद 240,000 डॉलर से ज़्यादा की ठगी का शिकार होना पड़ा। एक प्रशासनिक कर्मचारी को भी एक "बड़े बॉस" से एक "रणनीतिक साझेदार" को भुगतान करने का अनुरोध करने वाला फ़ोन आने पर ठगा गया...

इन स्थितियों में आम बात यह है कि नकली आवाज हूबहू किसी रिश्तेदार या वरिष्ठ की तरह सुनाई जाती है, जिससे पीड़ित को उस पर पूरी तरह से भरोसा हो जाता है और उसे सत्यापन का समय नहीं मिल पाता।

हमेशा सत्यापित करें, तुरंत विश्वास न करें

डीपफेक वॉयस स्कैम के बढ़ते मामलों को देखते हुए, लोगों को सलाह दी जाती है कि वे फ़ोन पर सिर्फ़ आवाज़ के आधार पर पैसे ट्रांसफर न करें, भले ही वह आवाज़ बिल्कुल किसी प्रियजन की ही क्यों न हो। इसके बजाय, कोई भी लेन-देन करने से पहले पुराने नंबर पर कॉल करें या कई चैनलों के ज़रिए जानकारी की जाँच करें।

कई विशेषज्ञ असामान्य परिस्थितियों में सत्यापन के लिए घर या व्यवसाय में "आंतरिक पासवर्ड" स्थापित करने की भी सलाह देते हैं।

इसके अलावा, सोशल नेटवर्क पर स्पष्ट आवाज़ वाले वीडियो, खासकर लंबे कंटेंट वाले वीडियो, पोस्ट करने पर रोक लगाना ज़रूरी है। ख़ास तौर पर, कमज़ोर समूहों, जैसे बुज़ुर्गों या तकनीक से कम परिचित लोगों को पहले से ही सचेत करना और उनका मार्गदर्शन करना ज़रूरी है, क्योंकि ये हाई-टेक स्कैम के प्राथमिक लक्ष्य होते हैं।

Deepfake Voice - Ảnh 3.

रिश्तेदारों, मित्रों और सहकर्मियों की आवाजें भी नकली हो सकती हैं।

कई देशों में, प्राधिकारियों ने अपने स्वयं के कानूनी ढांचे के साथ डीपफेक प्रौद्योगिकी पर नियंत्रण कड़ा करना शुरू कर दिया है।

अमेरिका में, कई राज्यों ने चुनाव अभियानों में या गलत सूचना फैलाने के लिए डीपफेक के इस्तेमाल पर प्रतिबंध लगा दिया है। यूरोपीय संघ (ईयू) ने एआई अधिनियम पारित किया है, जिसके तहत संगठनों को पारदर्शी होना होगा और अगर कोई सामग्री कृत्रिम बुद्धिमत्ता से उत्पन्न होती है, तो स्पष्ट रूप से चेतावनी देनी होगी।

इस बीच, वियतनाम में, हालांकि डीपफेक आवाजों के लिए कोई विशिष्ट नियम नहीं हैं, फिर भी संबंधित कार्यों को वर्तमान कानून के अनुसार निपटाया जा सकता है, जिसमें धोखाधड़ी, गोपनीयता का उल्लंघन या पहचान धोखाधड़ी जैसे अपराध शामिल हैं।

हालांकि, वास्तविकता यह है कि प्रौद्योगिकी का विकास इतनी तेजी से हो रहा है कि उस पर निगरानी रखना कानून की क्षमता से परे है, जिससे कई खामियां रह जाती हैं, जिनका गलत लोग फायदा उठा सकते हैं।

जब आवाज़ सबूत नहीं रह जाती

आवाज़ पहले एक अंतरंग और विश्वसनीय चीज़ हुआ करती थी, लेकिन डीपफेक आवाज़ के साथ, यह अब विश्वसनीय प्रमाण नहीं रही। एआई के युग में, प्रत्येक व्यक्ति को डिजिटल सुरक्षा का ज्ञान होना चाहिए, सक्रिय रूप से सत्यापन करना चाहिए और हमेशा सतर्क रहना चाहिए क्योंकि कॉल एक जाल बन सकती है।

फान हाई डांग

स्रोत: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


टिप्पणी (0)

No data
No data

उसी विषय में

उसी श्रेणी में

Su 30-MK2 लड़ाकू विमानों ने जैमिंग गोले गिराए, हेलीकॉप्टरों ने राजधानी के आकाश में झंडे फहराए
राजधानी के आसमान में चमकता हुआ हीट ट्रैप छोड़ते हुए Su-30MK2 लड़ाकू विमान को देखने का आनंद लीजिए
(लाइव) 2 सितंबर को राष्ट्रीय दिवस मनाने के लिए समारोह, परेड और मार्च का सामान्य पूर्वाभ्यास
डुओंग होआंग येन ने एकेपेला "फादरलैंड इन द सनलाइट" गाकर गहरी भावनाएं जगाईं

उसी लेखक की

विरासत

आकृति

व्यापार

No videos available

समाचार

राजनीतिक प्रणाली

स्थानीय

उत्पाद