बीजीआर के अनुसार, 2024 दुनिया के लिए यह समझने का एक निर्णायक समय होगा कि क्या कृत्रिम बुद्धिमत्ता वास्तव में कंप्यूटिंग का भविष्य है या सिर्फ़ एक क्षणिक सनक है। हालाँकि एआई के वास्तविक अनुप्रयोग तेज़ी से विविध होते जा रहे हैं, लेकिन आने वाले महीनों में अनगिनत घोटालों के माध्यम से इस तकनीक का स्याह पक्ष भी सामने आएगा।
Scams.info के धोखाधड़ी-रोधी विशेषज्ञों ने अभी-अभी 3 AI घोटालों की एक सूची जारी की है, जिनसे 2024 में सभी को सावधान रहना चाहिए। सामान्य नियम यह है कि किसी भी ऐसी चीज़ से सावधान रहें जिसका वर्णन बहुत अधिक आकर्षक ढंग से किया गया हो, लेकिन निम्नलिखित तरकीबों के लिए विशेष सतर्कता की आवश्यकता है।
एआई के साथ निवेश घोटाला
गूगल, माइक्रोसॉफ्ट और ओपनएआई जैसी बड़ी कंपनियों ने एआई में करोड़ों डॉलर लगाए हैं और इस साल भी भारी निवेश जारी रखेंगी। धोखेबाज़ इसी बात का फ़ायदा उठाकर आपको झूठे मौकों पर निवेश करने के लिए लुभाएँगे। अगर सोशल मीडिया पर कोई आपको यह यकीन दिलाने की कोशिश करे कि एआई आपके निवेश पर कई गुना रिटर्न देगा, तो अपना बटुआ खोलने से पहले दो बार सोचें।
कम जोखिम वाले, 'अच्छे' निवेश कभी अस्तित्व में नहीं आते।
स्कैम्स.इन्फ़ो के निकोलस क्राउच चेतावनी देते हैं, "ऐसे निवेशों से सावधान रहें जो कम जोखिम पर ज़्यादा रिटर्न का वादा करते हैं और पैसा लगाने से पहले अच्छी तरह जाँच-पड़ताल ज़रूर कर लें।" नए निवेशकों को रेफ़रल ऑफ़र से भी सावधान रहना चाहिए; ये अक्सर पिरामिड स्कीम की तरह काम करते हैं, जिनसे सिर्फ़ बड़े लोगों को ही फ़ायदा होता है, और बहुत कम दूसरे लोग फ़ायदा उठा पाते हैं।
किसी रिश्तेदार का रूप धारण करना
किसी दोस्त या रिश्तेदार का रूप धारण करके पैसे उधार लेने का तरीका नया नहीं है, क्योंकि धोखेबाज़ की आवाज़ की नकल करना ज़्यादा कारगर नहीं होता। हालाँकि, एआई के ज़रिए यह घोटाला और भी ज़्यादा डरावना हो जाएगा। किसी रिश्तेदार की आवाज़ वाला सिर्फ़ एक यूट्यूब वीडियो या फ़ेसबुक पोस्ट, धोखेबाज़ एआई का इस्तेमाल करके हूबहू नकल कर सकता है। क्या आप फ़ोन कॉल के ज़रिए फ़र्क़ बता सकते हैं?
AI आसानी से आपके प्रियजन की आवाज़ की नकल कर सकता है
वाशिंगटन पोस्ट स्क्रीनशॉट
क्राउच ने जोर देकर कहा, "यह महत्वपूर्ण है कि लोग अपने सोशल मीडिया खातों की सुरक्षा करें ताकि धोखेबाज उनकी आवाज और परिवार की जानकारी हासिल न कर सकें।"
सुरक्षा प्रणाली को बायपास करने के लिए आवाज का उपयोग करना
कुछ बैंक फ़ोन पर लेन-देन करते समय उपयोगकर्ताओं की पहचान के लिए ध्वनि पहचान का इस्तेमाल करते हैं। ऊपर बताए गए कारणों से, यह तरीका पहले की तुलना में अचानक कम सुरक्षित हो गया है। अगर आप इंटरनेट पर कहीं भी अपनी आवाज़ का वीडियो या क्लिप पोस्ट करते हैं, तो कोई भी बदमाश उस सामग्री का इस्तेमाल करके आपकी आवाज़ की नकल कर सकता है। जैसा कि क्राउच बताते हैं, बैंकों के पास अपने ग्राहकों की पहचान सत्यापित करने के लिए अभी भी अन्य डेटा मौजूद है, लेकिन यह तरीका बदमाशों को आपका बैंक खाता चुराने के एक कदम और करीब ले आता है।
वॉयस सुरक्षा प्रणालियाँ अब AI की शक्ति से सुरक्षित नहीं हैं
एआई में हमारे जीवन और हमारे उपकरणों के साथ हमारे व्यवहार को मौलिक रूप से बदलने की क्षमता है। यह एक नवीनतम उपकरण भी है जिसका उपयोग हैकर्स और स्कैमर्स उपयोगकर्ताओं पर हमला करने के लिए करेंगे। इसलिए हमेशा सतर्क रहें और एआई से संबंधित किसी भी गतिविधि में शामिल होने से पहले पूरी तरह से शोध करें।
[विज्ञापन_2]
स्रोत लिंक
टिप्पणी (0)