Vietnam.vn - Nền tảng quảng bá Việt Nam

चीन और पश्चिमी देशों ने एआई जोखिमों पर 'लाल रेखाएँ' निर्धारित की हैं

Công LuậnCông Luận19/03/2024

[विज्ञापन_1]

पिछले सप्ताह प्रमुख अंतर्राष्ट्रीय विशेषज्ञों के एक समूह ने बीजिंग में बैठक की, जहां उन्होंने कृत्रिम बुद्धि के विकास में “लक्ष्मण रेखाओं” की पहचान की, जिसमें जैव हथियारों का निर्माण और साइबर हमले करना शामिल है।

बैठक के कुछ दिनों बाद एक बयान में, शिक्षाविदों ने चेतावनी दी कि "हमारे जीवनकाल में मानवता के लिए विनाशकारी या यहां तक ​​कि अस्तित्वगत जोखिमों" को रोकने के लिए एआई सुरक्षा के लिए एक सामान्य दृष्टिकोण की आवश्यकता है।

बयान में कहा गया है, "शीत युद्ध के चरम पर, अंतर्राष्ट्रीय सरकार और वैज्ञानिक सहयोग ने परमाणु आपदा को रोकने में मदद की। मानवता को एक बार फिर अभूतपूर्व तकनीक से उत्पन्न होने वाली आपदा को रोकने के लिए मिलकर काम करना होगा।"

चीनी और पश्चिमी वैज्ञानिकों ने एआई छवि 1 के जोखिम की सीमा निर्धारित की

बीजिंग में एआई सुरक्षा पर अंतर्राष्ट्रीय संवाद में विशेषज्ञों ने एआई विकास में "लक्ष्मण रेखाओं" की पहचान की है। फोटो: एफटी

हस्ताक्षरकर्ताओं में जेफ्री हिंटन और योशुआ बेंगियो शामिल हैं, जिन्हें अक्सर एआई के "जनक" के रूप में वर्णित किया जाता है; स्टुअर्ट रसेल, कैलिफोर्निया विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर; और एंड्रयू याओ, चीन के सबसे प्रमुख कंप्यूटर वैज्ञानिकों में से एक।

यह बयान पिछले सप्ताह बीजिंग में आयोजित अंतर्राष्ट्रीय एआई सुरक्षा वार्ता के बाद आया है, जिसमें चीनी सरकारी अधिकारियों ने भाग लिया था और फोरम तथा इसके परिणामों पर अपनी स्वीकृति व्यक्त की थी।

अमेरिकी राष्ट्रपति जो बाइडेन और चीनी राष्ट्रपति शी जिनपिंग ने पिछले साल नवंबर में मुलाकात की थी और एआई सुरक्षा पर चर्चा की थी, और इस मुद्दे पर बातचीत शुरू करने पर सहमति जताई थी। हाल के महीनों में, दुनिया की प्रमुख एआई कंपनियों ने भी चीनी एआई विशेषज्ञों के साथ निजी तौर पर मुलाकात की है।

नवंबर 2023 में, ब्रिटेन के चांसलर ऋषि सुनक के एआई सुरक्षा शिखर सम्मेलन के दौरान, चीन सहित 28 देशों और अग्रणी एआई कंपनियों ने उन्नत एआई से उत्पन्न अस्तित्वगत जोखिमों को दूर करने के लिए एक साथ काम करने की व्यापक प्रतिबद्धता पर सहमति व्यक्त की।

पिछले सप्ताह बीजिंग में विशेषज्ञों ने “कृत्रिम सामान्य बुद्धिमत्ता - एजीआई” या एआई प्रणालियों के विकास से जुड़े खतरों पर चर्चा की, जो मनुष्यों के बराबर या उनसे बेहतर हैं।

बेंगियो ने कहा, "चर्चा का मुख्य फोकस उन लाल रेखाओं पर था, जिन्हें किसी भी शक्तिशाली एआई प्रणाली को पार नहीं करना चाहिए और जिन्हें दुनिया भर की सरकारों को एआई के विकास और तैनाती में लागू करना चाहिए।"

ये लाल रेखाएं यह सुनिश्चित करेंगी कि “कोई भी एआई प्रणाली स्पष्ट मानवीय सहमति और समर्थन के बिना खुद को दोहरा या सुधार नहीं सकती” या “ऐसी कार्रवाई नहीं कर सकती जो उसकी शक्ति और प्रभाव को अनुचित रूप से बढ़ा दे।”

वैज्ञानिकों ने कहा कि कोई भी प्रणाली “अभिनेताओं की सामूहिक विनाश के हथियार डिजाइन करने, जैविक या रासायनिक हथियार सम्मेलन का उल्लंघन करने की क्षमता को महत्वपूर्ण रूप से नहीं बढ़ाएगी” या “स्वचालित रूप से साइबर हमले करने में सक्षम नहीं होगी, जिसके परिणामस्वरूप गंभीर वित्तीय नुकसान या समकक्ष क्षति हो सकती है”।

होआंग हाई (एफटी के अनुसार)


[विज्ञापन_2]
स्रोत

टिप्पणी (0)

No data
No data

उसी विषय में

उसी श्रेणी में

वियतनामी फ़िल्में और ऑस्कर तक का सफ़र
युवा लोग वर्ष के सबसे खूबसूरत चावल के मौसम के दौरान उत्तर-पश्चिम में घूमने जाते हैं
बिन्ह लियू में रीड घास के 'शिकार' के मौसम में
कैन जिओ मैंग्रोव वन के मध्य में

उसी लेखक की

विरासत

आकृति

व्यापार

मिस ग्रैंड इंटरनेशनल में येन न्ही के राष्ट्रीय पोशाक प्रदर्शन वीडियो को सबसे ज़्यादा बार देखा गया

वर्तमान घटनाएं

राजनीतिक प्रणाली

स्थानीय

उत्पाद