बीजीआर के अनुसार, 2024 दुनिया के लिए यह समझने का एक निर्णायक समय होगा कि क्या कृत्रिम बुद्धिमत्ता वास्तव में कंप्यूटिंग का भविष्य है या सिर्फ़ एक क्षणिक सनक है। हालाँकि एआई के वास्तविक अनुप्रयोग तेज़ी से विविध होते जा रहे हैं, लेकिन आने वाले महीनों में अनगिनत घोटालों के माध्यम से इस तकनीक का स्याह पक्ष भी सामने आएगा।
Scams.info के धोखाधड़ी-रोधी विशेषज्ञों ने तीन AI घोटालों की एक सूची जारी की है, जिनसे 2024 में सभी को सावधान रहना चाहिए। एक सामान्य नियम के रूप में, किसी भी ऐसी चीज़ से सावधान रहें जो बहुत अधिक आकर्षक हो, लेकिन निम्नलिखित तरकीबों के लिए विशेष सतर्कता की आवश्यकता होती है।
एआई के साथ निवेश घोटाला
गूगल, माइक्रोसॉफ्ट और ओपनएआई जैसी बड़ी कंपनियों ने एआई में लाखों डॉलर लगाए हैं और इस साल भी भारी निवेश जारी रखेंगी। धोखेबाज़ इसी बात का फ़ायदा उठाकर आपको झूठे मौकों पर निवेश करने के लिए लुभाएँगे। अगर सोशल मीडिया पर कोई आपको यह यकीन दिलाने की कोशिश करे कि एआई आपके निवेश पर कई गुना रिटर्न देगा, तो अपना बटुआ खोलने से पहले दो बार सोचें।
कम जोखिम वाले, 'अच्छे' निवेश कभी अस्तित्व में नहीं आते।
स्कैम्स.इन्फो के निकोलस क्राउच चेतावनी देते हैं, "ऐसे निवेशों से सावधान रहें जो कम जोखिम पर ज़्यादा रिटर्न का वादा करते हैं और पैसा लगाने से पहले अच्छी तरह जाँच-पड़ताल ज़रूर कर लें।" नए निवेशकों को रेफ़रल ऑफ़र से भी सावधान रहना चाहिए; ये अक्सर पिरामिड स्कीमें होती हैं जिनका फ़ायदा सिर्फ़ शीर्ष प्रदर्शन करने वालों को ही मिलता है, और बहुत कम अन्य प्रतिभागियों को फ़ायदा होता है।
रिश्तेदारों का रूप धारण करना
किसी दोस्त या रिश्तेदार का रूप धारण करके पैसे उधार लेने का तरीका नया नहीं है, क्योंकि धोखेबाज़ की आवाज़ की नकल करना भी उतना कारगर नहीं होता। हालाँकि, AI के ज़रिए यह घोटाला और भी ज़्यादा डरावना हो जाएगा। किसी रिश्तेदार की आवाज़ वाला कोई YouTube वीडियो या फ़ेसबुक पोस्ट भी, धोखेबाज़ AI की मदद से हूबहू कॉपी कर सकता है। क्या आप फ़ोन कॉल पर फ़र्क़ बता सकते हैं?
AI आसानी से आपके प्रियजन की आवाज़ की नकल कर सकता है
वाशिंगटन पोस्ट स्क्रीनशॉट
क्राउच ने जोर देकर कहा, "यह महत्वपूर्ण है कि लोग अपने सोशल मीडिया खातों की सुरक्षा करें ताकि धोखेबाज उनकी आवाज और परिवार की जानकारी हासिल न कर सकें।"
सुरक्षा प्रणाली को बायपास करने के लिए आवाज का उपयोग करना
कुछ बैंक फ़ोन पर लेन-देन करते समय उपयोगकर्ताओं की पहचान के लिए ध्वनि पहचान का इस्तेमाल करते हैं। ऊपर बताए गए कारणों से, यह तरीका पहले की तुलना में अचानक कम सुरक्षित हो गया है। अगर आप इंटरनेट पर कहीं भी अपनी आवाज़ का वीडियो या क्लिप पोस्ट करते हैं, तो कोई भी व्यक्ति उस सामग्री का इस्तेमाल आपकी आवाज़ की नकल करने के लिए कर सकता है। जैसा कि क्राउच बताते हैं, बैंकों के पास ग्राहकों की पहचान सत्यापित करने के लिए अभी भी अन्य डेटा मौजूद है, लेकिन यह तरीका उन्हें आपका बैंक खाता चुराने के एक कदम और करीब ले आता है।
वॉयस सुरक्षा प्रणालियाँ अब AI की शक्ति से सुरक्षित नहीं हैं
एआई में हमारे जीवन और हमारे उपकरणों के साथ हमारे व्यवहार को मौलिक रूप से बदलने की क्षमता है। यह एक नवीनतम उपकरण भी है जिसका उपयोग हैकर्स और स्कैमर्स उपयोगकर्ताओं पर हमला करने के लिए करेंगे। इसलिए हमेशा सतर्क रहें और एआई से संबंधित किसी भी गतिविधि में शामिल होने से पहले पूरी तरह से शोध करें।
[विज्ञापन_2]
स्रोत लिंक
टिप्पणी (0)