हम 4.0 तकनीकी क्रांति के युग में जी रहे हैं, जहाँ कृत्रिम बुद्धिमत्ता (एआई) धीरे-धीरे सामाजिक जीवन के कई क्षेत्रों का एक अनिवार्य हिस्सा बनती जा रही है। जनता और घटनाओं के बीच सूचना के सेतु के रूप में मीडिया भी इस प्रवृत्ति से अछूता नहीं रह सकता।
वियतनाम पत्रकार संघ के पत्रकारिता प्रशिक्षण केंद्र की निदेशक सुश्री गुयेन थी हाई वैन, एआई तकनीक पर कार्यशाला में। (स्रोत: वियतनाम पत्रकार संघ) |
एआई से मिलने वाले लाभों का अधिकतम लाभ उठाने के लिए, संचारकों को एआई का प्रभावी ढंग से उपयोग करने के लिए स्वयं को ज्ञान से लैस करने की आवश्यकता है, साथ ही सूचना प्रसारण में विश्वसनीयता और नैतिकता सुनिश्चित करनी होगी।
एआई की “गर्मी” से
यह स्पष्ट है कि AI (कृत्रिम बुद्धिमत्ता) आज सबसे लोकप्रिय कीवर्ड्स में से एक है। सितंबर 2024 में, Google सर्च पर "AI" कीवर्ड को 0.3 सेकंड में सर्च करने पर 15 अरब 90 करोड़ परिणाम प्राप्त हुए; और "AI टूल्स" कीवर्ड को 0.4 सेकंड में सर्च करने पर 3 अरब 40 करोड़ से ज़्यादा परिणाम प्राप्त हुए। ये विशाल आँकड़े वैश्विक स्तर पर AI और AI-आधारित टूल्स के प्रति जागरूकता और रुचि को दर्शाते हैं।
वर्तमान में, मीडिया उद्योग सहित विभिन्न क्षेत्रों के लिए अधिक से अधिक AI उपकरण सामने आ रहे हैं। व्यापक रूप से ज्ञात ChatGPT के अलावा, विशिष्ट कार्यों को पूरा करने के लिए कई AI अनुप्रयोग एक विशिष्ट दिशा में विकसित किए गए हैं। यहाँ कई उपकरणों को सूचीबद्ध करना मुश्किल नहीं है, उदाहरण के लिए: चैटबॉट कार्य समूह के लिए बिंग AI, क्लॉज़, जैपियर सेंट्रल; सामग्री निर्माण कार्यों के लिए जैस्पर, कॉपी.ai, एनीवर्ड; वीडियो उत्पादन और संपादन कार्यों के लिए डिस्क्रिप्ट, वंडरशेयर, रनवे; छवि निर्माण कार्यों के लिए DALL-E3, मिडजर्नी, स्टेबल डिफ्यूजन; ऑडियो सामग्री कार्यों के लिए मर्फ़, AIVA, आदि। और हाल ही में, दिग्गज अमेज़न ने भी अपने द्वारा विकसित AI उपकरण, वीडियो जेनरेटर और इमेज जेनरेटर, "रचनात्मकता को प्रेरित करने और अधिक मूल्य लाने" के उद्देश्य से पेश किए।
यद्यपि एआई उपकरण पैमाने और विशेषज्ञता के स्तर में व्यापक रूप से भिन्न होते हैं, लेकिन प्रौद्योगिकी में अनिवार्य रूप से दो चीजें समान हैं: एआई उपकरण को "प्रशिक्षित" करने के लिए एल्गोरिदम और डेटा के आधार पर एआई उपकरण विकसित किए जाते हैं।
मीडिया में एआई के उपयोग का नैतिक नियंत्रण
एआई टूल्स के लाभ निर्विवाद हैं, और तकनीकी अपडेट की तेज़ गति के साथ, मीडिया उद्योग में सरल से लेकर जटिल तक, हर जगह अधिक से अधिक विशिष्ट एआई टूल्स उपलब्ध होंगे। इस अभूतपूर्व विकास के साथ, मीडिया उद्योग में एआई टूल्स के विकास और उपयोग में नैतिक नियंत्रण के मुद्दे पर कई सवाल उठते हैं? क्या होगा यदि उस एआई टूल के एल्गोरिदम और डेटा में इस तरह से हेरफेर किया जाए जो समुदाय के लिए हानिकारक हो? एआई टूल द्वारा प्रशिक्षण के लिए उपयोग किए जाने वाले इनपुट डेटा के बौद्धिक संपदा अधिकारों की गारंटी कौन देता है? वह कौन है जो इनसे होने वाले नुकसान के स्तर का आकलन करता है?
क्या एक ही काम के लिए एआई टूल्स तक पहुँच रखने वालों और न रखने वालों के बीच असमानता है? एआई टूल्स से अनियंत्रित नुकसान की संभावना को लेकर भी सवाल उठाए गए हैं, खासकर मीडिया और सोशल नेटवर्क जैसे संवेदनशील क्षेत्रों में, जो बड़े पैमाने पर कई लोगों को प्रभावित कर सकते हैं।
उपरोक्त चिंताओं को ध्यान में रखते हुए, कई संगठनों, संघों, सरकारों और यहाँ तक कि एआई उपकरण विकसित करने वाली कंपनियों और निगमों ने एआई तकनीक में नैतिक नियंत्रण के मुद्दे से संबंधित सिफारिशें, स्पष्टीकरण और यहाँ तक कि आचार संहिता भी जारी की है। 2021 में 193 देशों द्वारा अपनाई गई, आर्टिफिशियल इंटेलिजेंस की नैतिकता पर घोषणा - यूनेस्को की सिफारिश - संयुक्त राष्ट्र शैक्षिक , वैज्ञानिक और सांस्कृतिक संगठन, स्पष्ट रूप से कहती है कि "कृत्रिम बुद्धिमत्ता (एआई) के तेजी से उदय ने वैश्विक स्तर पर कई अवसर पैदा किए हैं, स्वास्थ्य सेवा निदान में सहायता से लेकर सोशल मीडिया के माध्यम से मानवीय संपर्क को सक्षम करने और स्वचालित कार्यों के माध्यम से श्रम दक्षता बनाने तक।"
हालाँकि, ये तेज़ बदलाव गहरी नैतिक चिंताएँ भी पैदा करते हैं। एआई से जुड़े ऐसे जोखिम मौजूदा असमानताओं को और बढ़ाने लगे हैं, जिससे पहले से ही वंचित समूहों को और नुकसान पहुँच रहा है..."। और इसके बाद, "यूनेस्को से अनुरोध है कि वह सदस्य देशों की सहायता के लिए उपकरण विकसित करे, जिसमें तैयारी मूल्यांकन पद्धति भी शामिल हो, ताकि सरकारों के लिए अपने सभी नागरिकों के लिए एआई को नैतिक और ज़िम्मेदारी से लागू करने की उनकी तत्परता की एक व्यापक तस्वीर तैयार हो सके।"
अपने वैश्विक दृष्टिकोण में, यूनेस्को ने वैश्विक एआई नैतिकता और शासन वेधशाला (ग्लोबल एआई एथिक्स एंड गवर्नेंस ऑब्ज़र्वेटरी) की शुरुआत की है, जिसके बारे में उसका कहना है कि यह "एआई को नैतिक और ज़िम्मेदारी से अपनाने के लिए देशों की तत्परता के बारे में जानकारी प्रदान करती है। यह एआई एथिक्स एंड गवर्नेंस लैब की भी मेजबानी करता है, जो एआई नैतिकता के विभिन्न मुद्दों पर योगदान, प्रभावशाली शोध, टूलकिट और सकारात्मक प्रथाओं को एक साथ लाता है..."
यूनेस्को जैसे वैश्विक संगठनों के अलावा, कई पेशेवर संघ भी अपनी आचार संहिताएँ विकसित करने पर काम कर रहे हैं। उदाहरण के लिए, IABC - इंटरनेशनल एसोसिएशन ऑफ बिज़नेस कम्युनिकेशंस, जो दुनिया भर के हज़ारों सदस्यों वाला एक संगठन है, ने संचार पेशेवरों द्वारा AI के नैतिक उपयोग के लिए सिद्धांतों का एक समूह विकसित किया है। इसका उद्देश्य IABC सदस्यों को AI के लिए IABC आचार संहिता की प्रासंगिकता के बारे में मार्गदर्शन प्रदान करना है। AI तकनीक के विकास के साथ-साथ इन दिशानिर्देशों को समय के साथ अद्यतन और पूरक किया जा सकता है। इन सिद्धांतों में, कई विशिष्ट बिंदु हैं जिनका एक संचार पेशेवर को पालन करना चाहिए, जैसे:
"मीडिया पेशे में सम्मान और विश्वास को बढ़ावा देने वाले सकारात्मक और पारदर्शी अनुभव बनाने के लिए उपयोग किए जाने वाले एआई संसाधन मानव-चालित होने चाहिए। एआई उपकरणों द्वारा प्रस्तुत व्यावसायिक अवसरों और जोखिमों के बारे में जानकारी रखना महत्वपूर्ण है। जानकारी को सटीक, वस्तुनिष्ठ और निष्पक्ष रूप से संप्रेषित करना महत्वपूर्ण है। एआई उपकरण कई त्रुटियों, विसंगतियों और अन्य तकनीकी समस्याओं के अधीन हो सकते हैं। इसके लिए मानवीय निर्णय की आवश्यकता होती है ताकि स्वतंत्र रूप से यह सत्यापित किया जा सके कि मेरी एआई-जनित सामग्री सटीक, पारदर्शी और साहित्यिक चोरी की गई है।"
दूसरों की व्यक्तिगत और/या गोपनीय जानकारी की सुरक्षा करें और उनकी अनुमति के बिना इस जानकारी का उपयोग न करें। मानवीय जुड़ाव और उस समुदाय की समझ के आधार पर अपने AI आउटपुट का मूल्यांकन करें जिसकी सेवा करना उनका लक्ष्य है। अपनी पूरी क्षमता से पूर्वाग्रहों को दूर करें और दूसरों के सांस्कृतिक मूल्यों और विश्वासों के प्रति संवेदनशील रहें।
यह सुनिश्चित करने के लिए कि तृतीय-पक्ष के दस्तावेज़, जानकारी या संदर्भ सटीक हैं, आवश्यक श्रेय और सत्यापन योग्य हैं, और उपयोग के लिए उचित रूप से लाइसेंस प्राप्त या अधिकृत हैं, उन्हें आवश्यक पेशेवर कठोरता के साथ स्वतंत्र रूप से तथ्य-जांच और सत्यापन करना होगा। अपने पेशेवर आउटपुट में एआई के उपयोग को छिपाने या छिपाने का प्रयास न करें। एआई की ओपन सोर्स प्रकृति और गोपनीयता से संबंधित मुद्दों को स्वीकार करें, जिसमें झूठी, भ्रामक या भ्रामक जानकारी का प्रवेश शामिल है...
एआई टूल्स के मालिक, विकास और व्यापार करने वाली कंपनियाँ और निगम, एआई टूल्स के बारे में किसी और से बेहतर जानते हैं, वे उन अंतर्निहित एल्गोरिदम को जानते हैं जिन पर एआई टूल्स काम करते हैं, और उस डेटा को भी जानते हैं जिससे एआई टूल्स को प्रशिक्षित किया जाता है। इसलिए, इन कंपनियों को एआई विकास में नैतिकता के सिद्धांतों से संबंधित जानकारी भी प्रदान करने की आवश्यकता है। वास्तव में, ऐसी कंपनियाँ हैं जो इस मुद्दे में रुचि रखती हैं।
Google उन क्षेत्रों के लिए AI उपकरण विकसित नहीं करने के लिए प्रतिबद्ध है जहाँ नुकसान का गंभीर जोखिम है, और हम ऐसा तभी करेंगे जब हमें विश्वास हो कि लाभ जोखिमों से कहीं अधिक हैं और उचित सुरक्षा उपाय शामिल हैं। हथियार या अन्य प्रौद्योगिकियाँ जिनका प्राथमिक उद्देश्य या उपयोग मानव को सीधे तौर पर चोट पहुँचाना या उसे बढ़ावा देना है। ऐसी प्रौद्योगिकियाँ जो निगरानी के लिए जानकारी एकत्र या उपयोग करती हैं और जो अंतरराष्ट्रीय स्तर पर स्वीकृत मानदंडों का उल्लंघन करती हैं। ऐसी प्रौद्योगिकियाँ जिनका उद्देश्य अंतरराष्ट्रीय कानून और मानवाधिकारों के सामान्य रूप से स्वीकृत सिद्धांतों का उल्लंघन करता है।
सुरक्षा और संरक्षा के मोर्चे पर, गूगल ने वचन दिया है: "हम नुकसान के जोखिम पैदा करने वाले अनपेक्षित परिणामों से बचने के लिए मज़बूत सुरक्षा और संरक्षा उपायों का विकास और कार्यान्वयन जारी रखेंगे। हम अपने AI सिस्टम को उचित रूप से सतर्क रहने के लिए डिज़ाइन करेंगे और उन्हें AI सुरक्षा अनुसंधान की सर्वोत्तम प्रथाओं के अनुसार विकसित करने का प्रयास करेंगे। हम अपनी गोपनीयता सिद्धांतों को अपनी AI तकनीकों के विकास और उपयोग में शामिल करेंगे। हम सूचना और सहमति के अवसर प्रदान करेंगे, गोपनीयता-सुरक्षात्मक संरचनाओं को प्रोत्साहित करेंगे, और डेटा उपयोग पर उचित पारदर्शिता और नियंत्रण प्रदान करेंगे।"
गूगल की तरह, माइक्रोसॉफ्ट ने भी एआई सिद्धांतों और दृष्टिकोण पर एक बयान जारी किया, जिसमें ज़ोर दिया गया: "हम यह सुनिश्चित करने के लिए प्रतिबद्ध हैं कि एआई सिस्टम ज़िम्मेदारी से और लोगों के विश्वास को सुनिश्चित करने वाले तरीके से विकसित किए जाएँ..."। इसके अलावा, किसी न किसी रूप में, अमेज़ॅन और ओपनएआई जैसी बड़ी प्रौद्योगिकी कंपनियाँ जो एआई उपकरण विकसित करने में भारी निवेश कर रही हैं, ने भी अपनी प्रतिबद्धताएँ व्यक्त कीं।
इतिहास में कई उदाहरणों ने तकनीक के द्वैत को साबित किया है, जिसमें सकारात्मक और नकारात्मक दोनों पहलू शामिल हैं। आखिरकार, भले ही यह एक बेहद "हाई-टेक" तकनीकी प्लेटफ़ॉर्म है, फिर भी AI मनुष्यों द्वारा विकसित और एकत्रित एल्गोरिदम और डेटा पर आधारित है; साथ ही, ज़्यादातर AI उत्पाद उन कंपनियों की व्यावसायिक योजनाओं का हिस्सा होते हैं जिनके पास वे हैं।
इसलिए, तकनीकी पक्ष के साथ-साथ उत्पाद विकास एवं प्रबंधन टीम की ओर से भी हमेशा संभावित जोखिम बने रहते हैं। यहाँ समस्या यह है कि एआई उपकरण बहुसंख्यकों पर, यहाँ तक कि किसी समुदाय के सामाजिक-आर्थिक स्तर पर भी, कितना बड़ा प्रभाव डाल सकते हैं। एआई तकनीक का उपयोग करते समय नैतिक नियंत्रण पर समय पर ध्यान देना एक स्वागत योग्य संकेत है, जिसमें संयुक्त राष्ट्र जैसे बड़े अंतरराष्ट्रीय संगठनों या सरकारों, फिर उद्योग संघों और सबसे बढ़कर, प्रौद्योगिकी विकास इकाइयों की भागीदारी शामिल है।
हालांकि, जिस तरह एआई उपकरणों की सूची लगातार नए संस्करण जारी करती है, प्रत्येक पिछले संस्करण की तुलना में अधिक परिष्कृत और जटिल होता है, कोड, सिद्धांत या दिशानिर्देशों को भी समय पर अद्यतन और पूरक करने की आवश्यकता होती है, और इसके अलावा, उत्पाद विकास इकाइयों और उपयोगकर्ताओं को एक ऐसे ढांचे के भीतर रोकने, सीमित करने और नियंत्रित करने के लिए सक्रिय होने की आवश्यकता होती है, जहां सामान्य रूप से एआई प्रौद्योगिकी और विशेष रूप से मीडिया श्रमिकों में नैतिक नियंत्रण का अनुपालन करने की क्षमता उच्चतम दक्षता प्राप्त कर सकती है।
[विज्ञापन_2]
स्रोत
टिप्पणी (0)