हर कोने से हमला
गूगल ने "जेमिनी नैनो बनाना" नाम से एक नया कृत्रिम बुद्धिमत्ता (एआई) उत्पाद लॉन्च किया है, जो लिखने और तर्क करने की क्षमता वाला एक बड़ी भाषा एआई (एलएलएम) नहीं है, बल्कि फोटो संपादन में विशेषज्ञता वाला एआई है... कई उपयोगकर्ता इस उपकरण को लेकर उत्साहित हैं, लेकिन यह कई हानिकारक प्रभाव भी लाता है।

कंडक्टिफाई एआई के विज्ञान निदेशक, गुयेन होंग फुक ने कहा, "यह तकनीक और एआई नैतिकता के "प्रतिगमन" जैसा है।" "जेमिनी नैनो बनाना में फ़ोटो को प्रभावी ढंग से संपादित करने की क्षमता है। लेकिन गूगल द्वारा जेमिनी नैनो बनाना को बिना सेंसर किए, जो बाधाओं और सीमित तंत्रों को ढीला करता है, इस एआई को ऐसी तस्वीरें बनाने की अनुमति देता है जो मशहूर हस्तियों, सेक्सी तस्वीरों, संवेदनशील तस्वीरों से बेहद मिलती-जुलती हैं...", श्री फुक ने कहा।
श्री गुयेन हांग फुक के अनुसार, यह क्षमता जेमिनी नैनो बनाना को इतना वास्तविक नकली चित्र बनाने का उपकरण बनाती है कि एआई विशेषज्ञ भी उन्हें भेद नहीं सकते, जिससे धोखाधड़ी और साइबर सुरक्षा के नए जोखिम पैदा होते हैं, जैसे कि राजनेताओं और प्रसिद्ध राजनेताओं के साथ फोटो बनाकर नकली जानकारी फैलाना, यहां तक कि व्यक्तियों की तस्वीरों को एआई द्वारा संपादित करना और सोशल नेटवर्क पर बदनाम करना...
इसके अलावा, दर्जनों अन्य फोटो-एडिटिंग एआई टूल्स के ऑनलाइन "प्रचलन" के साथ, डीपफेक धोखाधड़ी का कोई अंत नहीं दिख रहा है। सुरक्षा संगठनों के आँकड़े बताते हैं कि डीपफेक तकनीक उच्च-मूल्यवान व्यक्तियों, विशेष रूप से व्यावसायिक नेताओं को निशाना बनाकर धोखाधड़ी अभियान चलाती है। 2024 में, वैश्विक स्तर पर 140,000-150,000 मामले सामने आए, जिनमें से 75% सीईओ और वरिष्ठ नेताओं को निशाना बनाया गया... डीपफेक 2027 तक वैश्विक आर्थिक नुकसान को 32%, यानी लगभग 40 बिलियन अमेरिकी डॉलर प्रति वर्ष तक बढ़ा सकता है।
हाल ही में, एआई एंथ्रोपिक कंपनी ने विदेशी हैकरों द्वारा किए गए एक साइबर हमले अभियान का पता लगाया और उसे रोका, जिसमें पहली बार स्वचालित हमले की गतिविधियों के समन्वय के लिए एआई का इस्तेमाल दर्ज किया गया। विशेष रूप से, हैकरों ने घुसपैठ की गतिविधियों की योजना बनाने, उन्हें निर्देशित करने और उन्हें लागू करने के लिए एआई सिस्टम का इस्तेमाल किया - एक "चिंताजनक" घटनाक्रम, जिससे साइबर हमले अभियानों के पैमाने और गति के बढ़ने का खतरा है...
राष्ट्रीय साइबर सुरक्षा संघ के धोखाधड़ी-रोधी संगठन के निदेशक श्री न्गो मिन्ह हियु ने बताया कि एआई-एकीकृत उपकरण में वास्तविक लोगों के उपयोग की तुलना में धोखाधड़ी की गति लगभग 20 गुना अधिक है। विषय विश्लेषण के लिए एआई को धोखाधड़ी का परिदृश्य देते हैं, और तुरंत सिस्टम स्वचालित रूप से पीड़ितों के साथ चैट करेगा। प्रारंभिक डेटा से, एआई जान सकता है कि पीड़ित क्या चाहता है और वास्तविक समय में पीड़ित के साथ चैट कर सकता है। सबसे परिष्कृत चाल "मैन-इन-द-मिडिल" हमला है, जिसका अर्थ है कि जब उपयोगकर्ता वीडियो प्रमाणीकरण करता है जैसे कि चेहरा मोड़ना, कमांड पढ़ना, तो हैकर प्रेषित डेटा में हस्तक्षेप करने के लिए बीच में खड़ा होगा। उस समय, साइबर अपराधी प्रमाणीकरण को बायपास करने के लिए उपयोगकर्ता के वास्तविक डेटा स्ट्रीम को बदलने के लिए तैयार किए गए डीपफेक वीडियो डालते हैं... उपरोक्त विधि से, बैंकों और वित्तीय संस्थानों की सुरक्षा प्रणालियों को भी घोटाला होने का खतरा है।
बेहतर डेटा प्रबंधन
जैसे-जैसे एआई अधिक लोकप्रिय होता जाएगा, सुरक्षा और गोपनीयता के जोखिम भी काफ़ी बढ़ेंगे। दूरस्थ सर्वरों पर संग्रहीत और संसाधित डेटा हैकर्स और साइबर अपराधी संगठनों के लिए एक आकर्षक लक्ष्य बन जाएगा। राष्ट्रीय साइबर सुरक्षा संघ के आंकड़ों के अनुसार, 2025 की दूसरी तिमाही में ही, एआई का उपयोग करके साइबर हमलों की संख्या में 62% की वृद्धि हुई, जिससे वैश्विक स्तर पर 18 अरब अमेरिकी डॉलर तक का नुकसान हुआ...
विशेषज्ञों का कहना है कि डेटा सुरक्षा बेहद ज़रूरी है। हालाँकि, कई "डार्क मार्केट" प्लेटफ़ॉर्म पर डेटा संग्रह और बिक्री अभी भी खुलेआम हो रही है, और वह भी सिर्फ़ 20 डॉलर प्रति माह पर। साइबर अपराधी ऐसे टूल इस्तेमाल कर सकते हैं जो भाषा मॉडल की तरह ही काम करते हैं, लेकिन आपराधिक उद्देश्यों के लिए अनुकूलित होते हैं। ये टूल दुर्भावनापूर्ण कोड बनाने में सक्षम हैं और यहाँ तक कि एंटी-वायरस सॉफ़्टवेयर को भी बायपास कर सकते हैं।
वियतनाम में, डिक्री संख्या 13/2023/ND-CP (17 अप्रैल, 2023 से प्रभावी) व्यक्तिगत डेटा की सुरक्षा को नियंत्रित करती है। इसके अतिरिक्त, व्यक्तिगत डेटा संरक्षण कानून 1 जनवरी, 2026 से प्रभावी होने की उम्मीद है, जिससे व्यक्तिगत डेटा लीक और दुरुपयोग के जोखिम से निपटने के लिए एक मज़बूत कानूनी तंत्र तैयार होगा। हालाँकि, राष्ट्रीय साइबर सुरक्षा संघ के अनुसार, प्रवर्तन प्रभावशीलता को अभी भी तीनों स्तंभों पर मज़बूत करने की आवश्यकता है: लोगों की जागरूकता बढ़ाना, व्यावसायिक ज़िम्मेदारी बढ़ाना और प्रबंधन एजेंसियों की प्रबंधन क्षमता में सुधार करना। तकनीकी उपायों के अलावा, प्रत्येक व्यक्ति को असामान्य और संदिग्ध संकेतों की पहचान करने और खतरनाक डिजिटल इंटरैक्शन से खुद को सक्रिय रूप से बचाने की क्षमता विकसित करने की आवश्यकता है...
सुरक्षा फर्म कैस्परस्की ने डार्क एआई (एक शब्द जिसका इस्तेमाल बड़े भाषा मॉडल (एलएलएम) की तैनाती का वर्णन करने के लिए किया जाता है जो मानक सुरक्षा नियंत्रणों से बाहर काम करते हैं, और अक्सर धोखाधड़ी, हेरफेर, साइबर हमले या डेटा दुरुपयोग जैसी कार्रवाइयों को बढ़ावा देते हैं) के दुरुपयोग के खिलाफ चेतावनी दी है। एशिया-प्रशांत क्षेत्र में डार्क एआई के उदय के कारण संगठनों और व्यक्तियों को तेजी से जटिल और पता लगाने में मुश्किल साइबर हमलों के लिए तैयार रहने की आवश्यकता है।
कैस्परस्की में मध्य पूर्व, तुर्की, अफ्रीका और एशिया-प्रशांत क्षेत्र के प्रभारी, ग्लोबल रिसर्च एंड एनालिसिस टीम (GReAT) के प्रमुख, सर्गेई लोज़किन ने बताया कि आज AI के दुरुपयोग का एक उदाहरण ब्लैक हैट GPT मॉडल का उभरना है। ये AI मॉडल विशेष रूप से अनैतिक और अवैध उद्देश्यों को पूरा करने के लिए विकसित या समायोजित किए गए हैं, जैसे मैलवेयर बनाना, बड़े पैमाने पर हमले करने के लिए धाराप्रवाह और अत्यधिक विश्वसनीय फ़िशिंग ईमेल तैयार करना, आवाज़ें और डीपफेक वीडियो बनाना, और यहाँ तक कि नकली हमले की गतिविधियों का समर्थन करना...
कैस्परस्की के विशेषज्ञ व्यक्तियों और व्यवसायों को एआई-जनित मैलवेयर का पता लगाने के लिए अगली पीढ़ी के सुरक्षा समाधानों का उपयोग करने और डेटा सुरक्षा को एक महत्वपूर्ण लक्ष्य मानने की सलाह देते हैं। व्यवसायों के लिए, एआई-संचालित शोषणों की निगरानी के लिए रीयल-टाइम निगरानी उपकरण लागू करना; एआई के अंधेरे में होने की घटना और डेटा लीक के जोखिम को सीमित करने के लिए एक्सेस कंट्रोल और स्टाफ प्रशिक्षण को मजबूत करना; खतरों की निगरानी और घटनाओं पर त्वरित प्रतिक्रिया के लिए एक साइबर सुरक्षा संचालन केंद्र स्थापित करना आवश्यक है...
स्रोत: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






टिप्पणी (0)