Vietnam.vn - Nền tảng quảng bá Việt Nam

2024 में 3 एआई घोटाले जिन पर ध्यान देना चाहिए

Báo Thanh niênBáo Thanh niên16/01/2024

[विज्ञापन_1]

बीजीआर के अनुसार, 2024 दुनिया के लिए यह समझने का एक निर्णायक समय होगा कि क्या कृत्रिम बुद्धिमत्ता वास्तव में कंप्यूटिंग का भविष्य है या सिर्फ़ एक क्षणिक सनक है। हालाँकि एआई के वास्तविक अनुप्रयोग तेज़ी से विविध होते जा रहे हैं, लेकिन आने वाले महीनों में अनगिनत घोटालों के माध्यम से इस तकनीक का स्याह पक्ष भी सामने आएगा।

Scams.info के धोखाधड़ी-रोधी विशेषज्ञों ने अभी-अभी 3 AI घोटालों की एक सूची जारी की है, जिनसे 2024 में सभी को सावधान रहना चाहिए। सामान्य नियम यह है कि किसी भी ऐसी चीज़ से सावधान रहें जिसका वर्णन बहुत अधिक आकर्षक ढंग से किया गया हो, लेकिन निम्नलिखित तरकीबों के लिए विशेष सतर्कता की आवश्यकता है।

एआई के साथ निवेश घोटाला

गूगल, माइक्रोसॉफ्ट और ओपनएआई जैसी बड़ी कंपनियों ने एआई में करोड़ों डॉलर लगाए हैं और इस साल भी भारी निवेश जारी रखेंगी। धोखेबाज़ इसी बात का फ़ायदा उठाकर आपको झूठे मौकों पर निवेश करने के लिए लुभाएँगे। अगर सोशल मीडिया पर कोई आपको यह यकीन दिलाने की कोशिश करे कि एआई आपके निवेश पर कई गुना रिटर्न देगा, तो अपना बटुआ खोलने से पहले दो बार सोचें।

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

कम जोखिम वाले, 'अच्छे' निवेश कभी अस्तित्व में नहीं आते।

स्कैम्स.इन्फ़ो के निकोलस क्राउच चेतावनी देते हैं, "ऐसे निवेशों से सावधान रहें जो कम जोखिम पर ज़्यादा रिटर्न का वादा करते हैं और पैसा लगाने से पहले अच्छी तरह जाँच-पड़ताल ज़रूर कर लें।" नए निवेशकों को रेफ़रल ऑफ़र से भी सावधान रहना चाहिए; ये अक्सर पिरामिड स्कीम की तरह काम करते हैं, जिनसे सिर्फ़ बड़े लोगों को ही फ़ायदा होता है, और बहुत कम दूसरे लोग फ़ायदा उठा पाते हैं।

किसी रिश्तेदार का रूप धारण करना

किसी दोस्त या रिश्तेदार का रूप धारण करके पैसे उधार लेने का तरीका नया नहीं है, क्योंकि धोखेबाज़ की आवाज़ की नकल करना ज़्यादा कारगर नहीं होता। हालाँकि, एआई के ज़रिए यह घोटाला और भी ज़्यादा डरावना हो जाएगा। किसी रिश्तेदार की आवाज़ वाला सिर्फ़ एक यूट्यूब वीडियो या फ़ेसबुक पोस्ट, धोखेबाज़ एआई का इस्तेमाल करके हूबहू नकल कर सकता है। क्या आप फ़ोन कॉल के ज़रिए फ़र्क़ बता सकते हैं?

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

AI आसानी से आपके प्रियजन की आवाज़ की नकल कर सकता है

वाशिंगटन पोस्ट स्क्रीनशॉट

क्राउच ने जोर देकर कहा, "यह महत्वपूर्ण है कि लोग अपने सोशल मीडिया खातों की सुरक्षा करें ताकि धोखेबाज उनकी आवाज और परिवार की जानकारी हासिल न कर सकें।"

सुरक्षा प्रणाली को बायपास करने के लिए आवाज का उपयोग करना

कुछ बैंक फ़ोन पर लेन-देन करते समय उपयोगकर्ताओं की पहचान के लिए ध्वनि पहचान का इस्तेमाल करते हैं। ऊपर बताए गए कारणों से, यह तरीका पहले की तुलना में अचानक कम सुरक्षित हो गया है। अगर आप इंटरनेट पर कहीं भी अपनी आवाज़ का वीडियो या क्लिप पोस्ट करते हैं, तो कोई भी बदमाश उस सामग्री का इस्तेमाल करके आपकी आवाज़ की नकल कर सकता है। जैसा कि क्राउच बताते हैं, बैंकों के पास अपने ग्राहकों की पहचान सत्यापित करने के लिए अभी भी अन्य डेटा मौजूद है, लेकिन यह तरीका बदमाशों को आपका बैंक खाता चुराने के एक कदम और करीब ले आता है।

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

वॉयस सुरक्षा प्रणालियाँ अब AI की शक्ति से सुरक्षित नहीं हैं

एआई में हमारे जीवन और हमारे उपकरणों के साथ हमारे व्यवहार को मौलिक रूप से बदलने की क्षमता है। यह एक नवीनतम उपकरण भी है जिसका उपयोग हैकर्स और स्कैमर्स उपयोगकर्ताओं पर हमला करने के लिए करेंगे। इसलिए हमेशा सतर्क रहें और एआई से संबंधित किसी भी गतिविधि में शामिल होने से पहले पूरी तरह से शोध करें।


[विज्ञापन_2]
स्रोत लिंक

टिप्पणी (0)

No data
No data

उसी विषय में

उसी श्रेणी में

वियतनामी फ़िल्में और ऑस्कर तक का सफ़र
युवा लोग वर्ष के सबसे खूबसूरत चावल के मौसम के दौरान उत्तर-पश्चिम में घूमने जाते हैं
बिन्ह लियू में रीड घास के 'शिकार' के मौसम में
कैन जिओ मैंग्रोव वन के मध्य में

उसी लेखक की

विरासत

आकृति

व्यापार

मिस ग्रैंड इंटरनेशनल में येन न्ही के राष्ट्रीय पोशाक प्रदर्शन वीडियो को सबसे ज़्यादा बार देखा गया

वर्तमान घटनाएं

राजनीतिक प्रणाली

स्थानीय

उत्पाद