पिछले सप्ताह प्रमुख अंतर्राष्ट्रीय विशेषज्ञों के एक समूह ने बीजिंग में बैठक की, जहां उन्होंने कृत्रिम बुद्धि के विकास में “लक्ष्मण रेखाओं” की पहचान की, जिसमें जैव हथियारों का निर्माण और साइबर हमले करना शामिल है।
बैठक के कुछ दिनों बाद एक बयान में, विद्वानों ने चेतावनी दी कि “हमारे जीवनकाल में मानवता के लिए विनाशकारी या यहां तक कि अस्तित्वगत जोखिमों” को रोकने के लिए एआई सुरक्षा के लिए एक सामान्य दृष्टिकोण की आवश्यकता है।
बयान में कहा गया है, "शीत युद्ध के चरम पर, अंतर्राष्ट्रीय वैज्ञानिक और सरकारी सहयोग ने परमाणु आपदा को रोकने में मदद की। मानवता को एक बार फिर अभूतपूर्व तकनीक से उत्पन्न होने वाली आपदा को रोकने के लिए मिलकर काम करना होगा।"
बीजिंग में एआई सुरक्षा पर अंतर्राष्ट्रीय संवाद में विशेषज्ञों ने एआई विकास में "लक्ष्मण रेखाओं" की पहचान की है। फोटो: एफटी
हस्ताक्षरकर्ताओं में जेफ्री हिंटन और योशुआ बेंगियो शामिल हैं, जिन्हें अक्सर एआई के "जनक" के रूप में वर्णित किया जाता है; स्टुअर्ट रसेल, कैलिफोर्निया विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर; और एंड्रयू याओ, चीन के सबसे प्रमुख कंप्यूटर वैज्ञानिकों में से एक।
यह बयान पिछले सप्ताह बीजिंग में आयोजित अंतर्राष्ट्रीय एआई सुरक्षा वार्ता के बाद आया है, जिसमें चीनी सरकारी अधिकारियों ने भाग लिया था और फोरम तथा इसके परिणामों पर अपनी स्वीकृति व्यक्त की थी।
अमेरिकी राष्ट्रपति जो बाइडेन और चीनी राष्ट्रपति शी जिनपिंग ने पिछले साल नवंबर में मुलाकात की थी और एआई सुरक्षा पर चर्चा की थी, और इस मुद्दे पर बातचीत शुरू करने पर सहमति जताई थी। हाल के महीनों में दुनिया की अग्रणी एआई कंपनियों ने चीनी एआई विशेषज्ञों के साथ निजी तौर पर भी मुलाकात की है।
नवंबर 2023 में, चीन सहित 28 देशों और अग्रणी एआई कंपनियों ने यूके के चांसलर ऋषि सुनक के एआई सुरक्षा शिखर सम्मेलन में उन्नत एआई से उत्पन्न अस्तित्वगत जोखिमों को दूर करने के लिए एक साथ काम करने की व्यापक प्रतिबद्धता पर सहमति व्यक्त की।
पिछले सप्ताह बीजिंग में विशेषज्ञों ने “कृत्रिम सामान्य बुद्धिमत्ता - एजीआई” या एआई प्रणालियों के विकास से जुड़े खतरों पर चर्चा की, जो मनुष्यों के बराबर या उनसे बेहतर हैं।
बेंगियो ने कहा, "चर्चा का मुख्य फोकस उन लाल रेखाओं पर था, जिन्हें किसी भी शक्तिशाली एआई प्रणाली को पार नहीं करना चाहिए और जिन्हें दुनिया भर की सरकारों को एआई के विकास और तैनाती में लागू करना चाहिए।"
ये लाल रेखाएं यह सुनिश्चित करेंगी कि “कोई भी एआई प्रणाली स्पष्ट मानवीय सहमति और समर्थन के बिना खुद को दोहरा या सुधार नहीं सकती” या “ऐसी कार्रवाई नहीं कर सकती जो उसकी शक्ति और प्रभाव को अनुचित रूप से बढ़ा दे।”
वैज्ञानिकों ने कहा कि कोई भी प्रणाली “अभिनेताओं की सामूहिक विनाश के हथियारों को डिजाइन करने, जैविक या रासायनिक हथियार सम्मेलन का उल्लंघन करने की क्षमता को महत्वपूर्ण रूप से नहीं बढ़ाएगी” या “स्वचालित रूप से साइबर हमले करने में सक्षम नहीं होगी, जिसके परिणामस्वरूप गंभीर वित्तीय नुकसान या समकक्ष क्षति हो।”
होआंग हाई (एफटी के अनुसार)
[विज्ञापन_2]
स्रोत
टिप्पणी (0)