ओपनएआई के एक वरिष्ठ शोधकर्ता के अनुसार, दुनिया अभी कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) के लिए तैयार नहीं है, या उस क्षण के लिए तैयार नहीं है जब कृत्रिम बुद्धिमत्ता मानव मस्तिष्क जितनी बुद्धिमान हो जाएगी।
क्या सामान्य कृत्रिम बुद्धिमत्ता एक जोखिम है?
वर्षों से, शोधकर्ता कृत्रिम सामान्य बुद्धिमत्ता, या एजीआई, के उद्भव के बारे में अनुमान लगाते रहे हैं, जब कृत्रिम प्रणालियाँ मनुष्यों के समान ही विविध प्रकार के कार्यों को संभालने में सक्षम हो जाएँगी। कई लोग इसके उद्भव को एक अस्तित्वगत जोखिम के रूप में देखते हैं, क्योंकि यह कंप्यूटरों को उन तरीकों से कार्य करने की अनुमति दे सकता है जिनकी मनुष्य कभी कल्पना भी नहीं कर सकते।
श्री माइल्स ब्रिंडेज के अनुसार, दुनिया कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) के लिए तैयार नहीं है।
अब, चैटजीपीटी डेवलपर ओपनएआई को एजीआई के लिए तैयार करने का काम सौंपे गए व्यक्ति ने स्वीकार किया है कि न तो दुनिया और न ही कंपनी अगले कदम के लिए "तैयार" है। माइल्स ब्रुनडेज "एजीआई की तैयारी पर ओपनएआई के वरिष्ठ सलाहकार" थे, लेकिन इस हफ्ते कंपनी द्वारा समूह को भंग करने के बाद उन्होंने अपने जाने की घोषणा कर दी।
"न तो ओपनएआई और न ही कोई अन्य अग्रणी प्रयोगशाला [एजीआई] के लिए तैयार है, और न ही दुनिया। स्पष्ट रूप से कहूँ तो, मुझे नहीं लगता कि यह ओपनएआई के नेतृत्व के बीच कोई विवादास्पद बयान है, बल्कि यह सवाल है कि क्या कंपनी और दुनिया सही समय पर तैयार होने की राह पर हैं," ब्रुंडेज ने कहा, जिन्होंने कंपनी की एआई सुरक्षा पहलों को आकार देने में छह साल बिताए हैं।
ब्रुंडेज का जाना ओपनएआई की सुरक्षा टीमों से कई बड़े लोगों के जाने की श्रृंखला में नवीनतम है। एक प्रमुख शोधकर्ता, जान लीके ने यह कहते हुए कंपनी छोड़ दी कि "सुरक्षा संस्कृति और प्रक्रियाएँ चमकदार उत्पादों के आगे पीछे चली गई हैं।" सह-संस्थापक इल्या सुत्स्केवर ने भी सुरक्षित एजीआई विकसित करने पर केंद्रित अपना स्वयं का एआई स्टार्टअप शुरू करने के लिए कंपनी छोड़ दी।
ब्रुनडेज द्वारा अपने "एजीआई रेडीनेस" समूह को भंग करने से कुछ ही महीने पहले कंपनी ने दीर्घकालिक एआई जोखिमों को कम करने के लिए समर्पित अपने "सुपरअलाइनमेंट" समूह को भंग कर दिया था, जिससे ओपनएआई के मूल मिशन और कंपनी की व्यावसायिक महत्वाकांक्षाओं के बीच तनाव उजागर हो गया था।
लाभ का दबाव ओपनएआई को सुरक्षा से दूर ले जा रहा है
ओपनएआई पर कथित तौर पर दो साल के भीतर एक गैर-लाभकारी संस्था से एक लाभकारी कंपनी में बदलने का दबाव है — वरना उसे अपने हालिया 6.6 अरब डॉलर के निवेश दौर से मिलने वाली धनराशि गँवाने का जोखिम उठाना पड़ेगा। व्यावसायीकरण की ओर यह बदलाव ब्रुंडेज के लिए लंबे समय से चिंता का विषय रहा है, जिन्होंने 2019 में ही इस पर अपनी शंकाएँ व्यक्त की थीं, जब ओपनएआई ने पहली बार अपना लाभकारी विभाग स्थापित किया था।
ओपनएआई के सीईओ सैम ऑल्टमैन को कंपनी पर लाभ कमाने के दबाव के कारण "सिरदर्द" हो रहा है।
अपने इस्तीफे की व्याख्या करते हुए, ब्रुंडेज ने इस प्रतिष्ठित कंपनी में शोध और प्रकाशन की अपनी स्वतंत्रता पर बढ़ते प्रतिबंधों का हवाला दिया। उन्होंने एआई नीतिगत चर्चाओं में एक स्वतंत्र आवाज़ की आवश्यकता पर ज़ोर दिया, जो उद्योग के पूर्वाग्रहों और हितों के टकराव से मुक्त हो। ओपनएआई के नेतृत्व को आंतरिक तैयारियों पर सलाह देने के बाद, उनका मानना है कि अब वे संगठन के बाहर से वैश्विक एआई शासन पर अधिक प्रभाव डाल सकते हैं।
ये प्रस्थान ओपनएआई के भीतर एक गहरे सांस्कृतिक विभाजन को भी दर्शाते हैं। कई शोधकर्ता एआई अनुसंधान को आगे बढ़ाने के लिए शामिल हुए थे और अब खुद को एक तेज़ी से उत्पाद-संचालित वातावरण में पा रहे हैं। आंतरिक संसाधन आवंटन एक विवाद का विषय बन गया है - रिपोर्टों से पता चलता है कि लीके की टीम को भंग करने से पहले सुरक्षा अनुसंधान के लिए कंप्यूटिंग शक्ति से वंचित कर दिया गया था।
ओपनएआई को हाल के महीनों में कृत्रिम बुद्धिमत्ता विकसित करने की अपनी योजनाओं और सुरक्षा को लेकर उसकी गंभीरता को लेकर सवालों का सामना करना पड़ा है। हालाँकि इसकी स्थापना एक गैर-लाभकारी संस्था के रूप में हुई थी जो सुरक्षित कृत्रिम बुद्धिमत्ता के निर्माण पर शोध करने के लिए समर्पित थी, चैटजीपीटी की सफलता ने इसमें भारी निवेश और नई तकनीक का लाभ उठाने का दबाव पैदा किया है।
[विज्ञापन_2]
स्रोत: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
टिप्पणी (0)