दोबारा देखने पर उसे एहसास हुआ कि यह तो बस एक AI तस्वीर थी जिसका इस्तेमाल किसी फ़ेसबुक पेज ने एक भावुक पोस्ट को दिखाने के लिए किया था। गौरतलब है कि यह दूसरी बार था जब AI ने उसे "लगभग" बेवकूफ़ बना दिया था। इससे पहले, उसने "'सेवानिवृत्त लोगों' की 'गर्मियों की छुट्टियों में आने वालों' से मुलाकात" वाले वीडियो को भी असली लोगों और घटनाओं के रूप में ग़लती से समझ लिया था।

मीडिया क्षेत्र में काम करते हुए, नियमित रूप से एआई सामग्री के संपर्क में रहने के कारण, सुश्री लिन्ह को यह स्वीकार करना पड़ा कि यह तकनीक इतनी तेजी से और इतनी परिष्कृत रूप से विकसित हुई है कि असली और नकली के बीच अंतर करना मुश्किल है।

स्क्रीनशॉट 1749203761184.png
फेसबुक पर वायरल हो रही तस्वीर AI द्वारा बनाई गई थी। स्क्रीनशॉट।

विशेषज्ञ भी इस बात से सहमत हैं। Google Veo 3, Kling AI, DALL·E 3, Midjourney... जैसे टूल अविश्वसनीय रूप से यथार्थवादी चित्र और वीडियो बनाने की क्षमता तक पहुँच चुके हैं।

ब्लॉकचेन टेक्नोलॉजी और आर्टिफिशियल इंटेलिजेंस इंस्टीट्यूट एबीएआईआई के प्रशिक्षण निदेशक श्री डो नु लाम ने बताया कि मल्टीमॉडल प्रौद्योगिकी और उन्नत भाषा मॉडल के कारण, ये उपकरण छवियों, ध्वनियों, चेहरे के भावों और प्राकृतिक गतिविधियों को सिंक्रनाइज़ कर सकते हैं, जिससे अत्यधिक विश्वसनीय उत्पाद बन सकते हैं।

W-फोटो: श्री दो नु लाम.jpg
ब्लॉकचेन टेक्नोलॉजी और आर्टिफिशियल इंटेलिजेंस इंस्टीट्यूट ABAII के प्रशिक्षण निदेशक, श्री डो नु लाम ने कहा कि उन्नत AI तकनीक अत्यधिक विश्वसनीय उत्पाद प्रदान करती है। फोटो: NVCC

श्री लैम ने टिप्पणी की कि एआई की प्रगति ने सामग्री निर्माण, विज्ञापन, मनोरंजन और शिक्षा जैसे क्षेत्रों में अपार संभावनाएँ खोली हैं। हालाँकि, पुनर्निर्माण की यह "सजीव" क्षमता नैतिकता, नियंत्रण और सूचना सुरक्षा के क्षेत्र में कई चुनौतियाँ भी पेश करती है, क्योंकि वास्तविकता और आभासीता के बीच की सीमा लगातार धुंधली होती जा रही है।

सुश्री लिन्ह द्वारा देखी गई फेसबुक पोस्ट पर लगभग 3,00,000 बार प्रतिक्रियाएँ और 16,000 से ज़्यादा टिप्पणियाँ आईं। कई उपयोगकर्ता बिना यह जाने कि यह सिर्फ़ एक एआई चित्रण है, बधाई देने या अपनी भावनाएँ व्यक्त करने के लिए दौड़ पड़े। कुछ और "संयमी" लोगों ने "नेटिज़न्स की इतनी नादानी" के लिए आलोचना की कि उन्होंने एआई को मूर्ख नहीं बनने दिया।

फेसबुक ग्रुप्स और फ़ोरम पर, यूज़र्स द्वारा बनाए और शेयर किए गए AI वीडियो देखना मुश्किल नहीं है। ख़ासकर, Google Veo 3 के आने से वीडियो की क्वालिटी में काफ़ी सुधार हुआ है, ख़ासकर किरदार के मुँह के आकार से मेल खाती आवाज़ में। अगर आप ध्यान से नहीं देखेंगे, तो दर्शक आसानी से भ्रमित हो सकते हैं।

एआई के युग में स्वस्थ रहना

एआई द्वारा बनाई गई तस्वीरों और वीडियो में अंतर करना मुश्किल होता है, जिससे उपयोगकर्ताओं, खासकर तकनीक में पारंगत न होने वाले कमज़ोर समूहों के लिए बड़ा खतरा पैदा होता है। एससीएस साइबर सिक्योरिटी जॉइंट स्टॉक कंपनी के आर्टिफिशियल इंटेलिजेंस (सीएआईओ) के निदेशक श्री वु थान थांग के अनुसार, साइबर अपराधी धोखाधड़ी (बायोमेट्रिक सिस्टम, ईकेवाईसी... को दरकिनार करके), प्रसिद्ध लोगों का रूप धारण करके झूठी जानकारी फैलाकर, जनता में भ्रम पैदा करने के लिए एआई का इस्तेमाल कर रहे हैं। ऐसे कई मामले सामने आए हैं जहाँ हाई-टेक अपराधी एआई का फायदा उठाकर डीपफेक तस्वीरें बनाते हैं, रिश्तेदारों का रूप धारण करके वीडियो कॉल करके पैसे ठगते हैं।

श्री वु थान थांग.jpg
एससीएस साइबर सिक्योरिटी जॉइंट स्टॉक कंपनी के आर्टिफिशियल इंटेलिजेंस (सीएआईओ) निदेशक श्री वु थान थांग ने कहा कि हम एक ऐसे युग में प्रवेश कर चुके हैं जहाँ हर चीज़ नकली हो सकती है। फोटो: एनवीसीसी

श्री थांग के अनुसार, व्यवसाय भी एआई अपराधियों के संभावित निशाने पर हैं। वे एआई डीपफेक का इस्तेमाल कर्मचारियों का रूप धारण करने, सुरक्षा प्रणालियों को दरकिनार करके उपस्थिति दर्ज कराने और व्यावसायिक नेताओं का रूप धारण करके उनकी प्रतिष्ठा को बदनाम और नष्ट करने के लिए कर सकते हैं।

इसी राय को साझा करते हुए, ABAII के श्री दो नु लाम ने व्यक्तिगत उपयोगकर्ताओं के लिए AI के कारण होने वाले तीन परिणामों की ओर इशारा किया: वित्तीय धोखाधड़ी, प्रतिष्ठा का हनन और निजी जानकारी का शोषण। व्यवसायों के लिए, अरुप कंपनी को 25 मिलियन अमेरिकी डॉलर का नुकसान हुआ, जब उसकी हांगकांग शाखा के कर्मचारियों को एक डीपफेक वीडियो मीटिंग में शामिल होने और अनुरोध के अनुसार धन हस्तांतरित करने के लिए धोखा दिया गया।

वर्तमान वायरल वीडियो-जनरेटिंग AI टूल, Veo 3 के बारे में आपको जो कुछ भी जानने की आवश्यकता है, वह सब कुछ Google का नवीनतम वीडियो-जनरेटिंग AI मॉडल - Veo 3 - छवियों के साथ यथार्थवादी रूप से सिंक्रनाइज़ ध्वनि बनाने की अपनी क्षमता से प्रभावित करता है।

एक और समान रूप से गंभीर खतरा यह है कि जब लोग असली और नकली के बीच अंतर नहीं कर पाएंगे, तो मीडिया और आधिकारिक समाचार स्रोतों में जनता का विश्वास खत्म हो जाएगा।

श्री लैम ने रॉयटर्स इंस्टीट्यूट की 2024 की रिपोर्ट का हवाला दिया, जिसमें दिखाया गया है कि मीडिया प्लेटफॉर्म पर समाचारों पर भरोसा करने वाले वैश्विक उपयोगकर्ताओं का प्रतिशत एक दशक में अपने सबसे निचले स्तर पर आ गया है, जिसका मुख्य कारण डीपफेक सामग्री का उभरना है।

विशेषज्ञ वु थान थांग के अनुसार, "हम एक ऐसे युग में हैं जहाँ सभी जानकारी नकली हो सकती है और अब कोई 'जोखिम' नहीं है।" इसलिए, जागरूकता बढ़ाना और व्यक्तिगत सुरक्षा उपाय लागू करना, और शांति से रहने के लिए एआई के बारे में सीखना आवश्यक है।

दोनों विशेषज्ञों ने उपयोगकर्ताओं को सलाह दी है कि वे निर्णय लेने से पहले हमेशा जानकारी की पुष्टि और प्रमाणीकरण करें; नकली सामग्री की पहचान करने के लिए खुद को जानकारी से लैस करें; व्यक्तिगत जानकारी को ऑनलाइन साझा करने की सीमा तय करें; और नकली सामग्री फैलाने वालों की रिपोर्ट करें। श्री लैम ने कहा, "केवल सक्रिय और जानकार रहकर ही उपयोगकर्ता वास्तव में अपनी सुरक्षा कर सकते हैं और डिजिटल युग में एक सुरक्षित साइबरस्पेस बनाने में योगदान दे सकते हैं।"

एआई के कारण मानव विलुप्त होने के बारे में चिंतित, 'गॉडफादर' योशुआ बेंगियो ने कुछ किया । 'गॉडफादर' एआई योशुआ बेंगियो ने मनुष्यों को खतरनाक व्यक्तित्व दिखाने के बजाय सुरक्षित कृत्रिम बुद्धिमत्ता प्रणाली बनाने के लक्ष्य के साथ एक गैर-लाभकारी संगठन की स्थापना की।

स्रोत: https://vietnamnet.vn/anh-ai-tran-ngap-facebook-tuong-vo-hai-nhung-cuc-nguy-hiem-2408883.html