डीपफेक के हानिकारक प्रभावों और इस समस्या के प्रस्तावित समाधानों पर आरएमआईटी विश्वविद्यालय के दो विशेषज्ञों की राय नीचे दी गई है:
डॉ. जोनाथन क्रेलिन (बाएँ) और डॉ. गुयेन वान थांग लॉन्ग (दाएँ)। (स्रोत: आरएमआईटी विश्वविद्यालय) |
साइबर अपराधी अप्रत्याशित तरीकों से नई तकनीक का फायदा उठाते हैं
डॉ. जोनाथन क्रेलिन, सूचना सुरक्षा प्रमुख, विज्ञान , इंजीनियरिंग और प्रौद्योगिकी संकाय, आरएमआईटी विश्वविद्यालय :
डीपफेक एक मशीन-जनित छवि है जो कई स्रोतों से छवियों या वीडियो को संयोजित कर सकती है, जिससे एक बहुत ही यथार्थवादी छवि, वीडियो या यहां तक कि ऑडियो भी बनाया जा सकता है।
डीपफेक एआई में मशीन लर्निंग नामक तकनीक पर निर्भर करते हैं, जो किसी व्यक्ति के चेहरे जैसे तत्वों को किसी अन्य छवि या वीडियो में प्रतिस्थापित और एकीकृत कर सकता है।
डीपफेक उपयोग का एक उदाहरण टेलर स्विफ्ट की तस्वीरों के साथ अश्लील सामग्री को मिलाकर नकली चित्र बनाना है।
ऐसा करने के लिए, मास्टरमाइंड को कुछ छवियों की आवश्यकता थी ताकि सॉफ्टवेयर गायक के चेहरे के भावों के बारे में जान सके, फिर उन्हें अश्लील सामग्री के साथ मिलाकर अश्लील तस्वीरें बना सके, जिससे गायक की छवि धूमिल हो सके।
दरअसल, यह अफवाह है कि ये तस्वीरें एक टेलीग्राम समूह द्वारा जारी की गई थीं और इन्हें एकीकृत एआई समर्थन के साथ माइक्रोसॉफ्ट डिजाइनर टूल का उपयोग करके बनाया गया था।
कोई भी व्यक्ति इसका शिकार बन सकता है, क्योंकि बदमाशों को केवल उस व्यक्ति की तस्वीर, वीडियो या ऑडियो रिकॉर्डिंग की जरूरत होती है, जिसका वे भेष बदल रहे हैं।
कई रूपों में फर्जी खबरों का इस्तेमाल झूठी खबरें बनाने के लिए किया जा सकता है, और यह मान लेना सुरक्षित है कि आगामी अमेरिकी राष्ट्रपति चुनाव ऐसी फर्जी खबरों से भरा होगा।
वर्तमान में, दुनिया भर के कानून निर्माता इस प्रकार की छवियों के विरुद्ध कानून बनाने पर विचार कर रहे हैं।
संयुक्त राज्य अमेरिका में कानून के संदर्भ में कुछ दृष्टिकोण अपनाए जाने लगे हैं, जैसे कि सिविल मुकदमों पर निर्भर रहना, या “किसी व्यक्ति की सहमति के बिना एआई द्वारा उत्पन्न उसकी यौन रूप से स्पष्ट छवियों के प्रसार” को संबोधित करने के लिए कानून बनाना।
चीन ने नए नियम भी पेश किए हैं, जिनके तहत एआई-जनित छवियों को फैलाने वालों पर मुकदमा चलाया जाएगा।
ब्रिटेन ने अपने ऑनलाइन सुरक्षा अधिनियम के तहत डीपफेक सामग्री को साझा करना अवैध बना दिया है।
इसका पता कैसे लगाया जाए या इसे कैसे रोका जाए?
पहला कदम यह है कि आप ऑनलाइन मौजूद फ़ोटो, वीडियो या ऑडियो रिकॉर्डिंग की संख्या कम करें। सुनिश्चित करें कि आप इन्हें केवल अपने जानने वालों के साथ ही साझा करें और इन्हें ऑनलाइन व्यापक रूप से पोस्ट न करें। एक बार कोई चीज़ इंटरनेट पर आ जाए, तो उसे हटाना लगभग नामुमकिन होता है।
दूसरा तरीका यह है कि कॉल को प्रमाणित करने के लिए अपने परिवार के साथ एक गुप्त शब्द पर सहमति बना लें, जिससे फर्जी कॉल के जाल में फंसने का खतरा कम हो जाएगा।
छवियों, विशेष रूप से वीडियो में, अजीब (स्टेज-दिखने वाली) त्रुटियां हो सकती हैं, यदि आप इन त्रुटियों को देखते हैं तो इस बात की बहुत अधिक संभावना है कि छवि या ध्वनि नकली है।
एक अन्य तकनीक जिसका उपयोग किया जा सकता है, वह है मूल छवि के स्रोत का पता लगाने के लिए गूगल या अन्य खोज इंजनों पर “रिवर्स इमेज” खोजना।
अंतिम सबक यह है कि आप जो देखते हैं उस पर आंख मूंदकर विश्वास न करें, कैमरा (या एआई) झूठ बोल सकता है!
डीपफेक मशहूर हस्तियों और राजनेताओं के लिए बड़ा खतरा
डॉ. गुयेन वान थांग लोंग, वरिष्ठ व्याख्याता, संचार और डिजाइन संकाय, आरएमआईटी विश्वविद्यालय :
डीपफेक से फर्जी खबरों के प्रसार के साथ, मशहूर हस्तियों और राजनेताओं की मीडिया टीमों को फर्जी खबरों पर नजर रखने और तुरंत प्रतिक्रिया देने या झूठी खबरों को लगातार सही करने के लिए संसाधन उपलब्ध कराने की आवश्यकता है।
यदि डीपफेक को व्यवस्थित रूप से "गंदे पीआर" के संगठित रूपों के साथ जोड़ दिया जाता है, तो परस्पर विरोधी सूचनाओं के प्रसार के कारण यह कार्य और भी कठिन हो जाता है, और नकली समाचार और नकारात्मक समाचार हमेशा सकारात्मक समाचारों की तुलना में अधिक साझा किए जाएंगे।
आमतौर पर, सोशल नेटवर्क पर साझा की गई खबरें देखते समय, व्यक्तियों को अक्सर आधिकारिक मीडिया चैनलों के माध्यम से जानकारी की पुष्टि करने की आदत होती है।
सोशल मीडिया पर डीपफेक सामग्री की बाढ़ के कारण, मुख्यधारा के समाचारों की सटीकता को सत्यापित करना कठिन और समय लेने वाला होता जा रहा है, जिसके लिए गहन शोध और सत्यापन तकनीकों की आवश्यकता होती है।
हम समाचारों और स्रोतों की पुष्टि करने में जितना अधिक विलंब करेंगे, सोशल मीडिया पर शेयर करने और टिप्पणी करने की तीव्र गति के कारण झूठी, मनगढ़ंत या भ्रामक जानकारी फैलने की संभावना उतनी ही अधिक होगी।
इससे मूल समस्या और अधिक गंभीर हो जाती है तथा सामाजिक अशांति उत्पन्न होने की संभावना रहती है, विशेषकर यदि विषय-वस्तु राजनीतिक भाषण, धर्म, लिंग, व्यापार रणनीति या व्यापक आर्थिक मुद्दों से संबंधित हो।
डीपफेक प्रसार के संदर्भ में, सबसे प्रभावी जोखिम प्रबंधन रणनीति लोकप्रिय सोशल मीडिया प्लेटफार्मों, वेबसाइटों या आमने-सामने की बैठकों के माध्यम से व्यवसायों, मशहूर हस्तियों, राजनेताओं और प्रशंसकों, प्रेस, समुदायों और कर्मचारियों जैसे प्रमुख हितधारकों के बीच लगातार संचार चैनलों को बनाए रखना है।
एआई के बढ़ते इस्तेमाल से फ़ायदे भी मिलते हैं और अप्रत्याशित नई समस्याएँ भी। चित्रांकन: (स्रोत: फ्रीपिक्स) |
इन संचार चैनलों को बनाए रखने से, डीपफेक से संबंधित जानकारी प्राप्त करना तेज हो जाता है, जिससे समय पर और प्रभावी अफवाह सुधार संभव हो जाता है, तथा गलत सूचना को शुरू में ही उजागर किया जा सकता है।
हालाँकि, कंपनियों, मशहूर हस्तियों और राजनेताओं को डीपफेक के लिए विशेष रूप से एक संकट प्रतिक्रिया योजना विकसित करने की आवश्यकता है। उदाहरण के लिए, कौन रिपोर्टिंग कर रहा है, किन मीडिया चैनलों के माध्यम से, साक्ष्यों और प्रतिष्ठित स्रोतों के माध्यम से जानकारी की पुष्टि के मानदंड, अफवाहों को दूर करने के लिए एक समय-सीमा निर्धारित करना, और प्रतिष्ठा बहाल करने की रणनीति की रूपरेखा तैयार करना।
एक अच्छी तरह से तैयार, व्यवस्थित योजना के साथ, डीपफेक संकट से निपटना अधिक व्यवहार्य होगा, तथा संभावित दुर्भाग्यपूर्ण परिणामों को न्यूनतम किया जा सकेगा।
[विज्ञापन_2]
स्रोत
टिप्पणी (0)