ओपनएआई के एक वरिष्ठ शोधकर्ता के अनुसार, दुनिया अभी कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) के लिए तैयार नहीं है, या उस बिंदु के लिए तैयार नहीं है जहां कृत्रिम बुद्धिमत्ता मानव मस्तिष्क जितनी बुद्धिमान हो।
क्या सामान्य कृत्रिम बुद्धिमत्ता एक जोखिम है?
वर्षों से, शोधकर्ता कृत्रिम सामान्य बुद्धिमत्ता (AGI) के उद्भव के बारे में अनुमान लगाते रहे हैं, जहाँ कृत्रिम प्रणालियाँ मनुष्यों के साथ-साथ कई तरह के कार्यों को संभालने में सक्षम होंगी। कई लोग इसके उद्भव को एक अस्तित्वगत जोखिम के रूप में देखते हैं, क्योंकि यह कंप्यूटरों को उन तरीकों से काम करने की अनुमति दे सकता है जिनकी मनुष्य कल्पना भी नहीं कर सकते।
श्री माइल्स ब्रिंडेज के अनुसार, दुनिया कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) के समय के लिए तैयार नहीं है।
अब, चैटजीपीटी डेवलपर ओपनएआई को एजीआई के लिए तैयार करने का काम सौंपे गए व्यक्ति ने स्वीकार किया है कि न तो दुनिया और न ही कंपनी अगले कदम के लिए "तैयार" है। माइल्स ब्रुनडेज "एजीआई की तैयारी पर ओपनएआई के वरिष्ठ सलाहकार" के रूप में कार्यरत थे, लेकिन इस सप्ताह कंपनी द्वारा समूह को भंग करने के बाद उन्होंने अपने पद छोड़ने की घोषणा की।
"न तो ओपनएआई और न ही कोई अन्य अग्रणी प्रयोगशाला (एजीआई के लिए) तैयार है, और न ही दुनिया। स्पष्ट रूप से कहूँ तो, मुझे नहीं लगता कि यह ओपनएआई के नेतृत्व के बीच कोई विवादास्पद बयान है, बल्कि यह सवाल है कि क्या कंपनी और दुनिया सही समय पर तैयार होने की राह पर हैं," ब्रुंडेज ने कहा, जिन्होंने कंपनी की एआई सुरक्षा पहलों को आकार देने में छह साल बिताए हैं।
ब्रुंडेज का जाना ओपनएआई की सुरक्षा टीमों से उल्लेखनीय प्रस्थानों की श्रृंखला में नवीनतम है। एक प्रमुख शोधकर्ता, जान लीके ने यह कहते हुए इस्तीफा दे दिया कि "सुरक्षा संस्कृति और प्रक्रियाएँ चमकदार उत्पादों के आगे पीछे चली गई हैं।" सह-संस्थापक इल्या सुत्स्केवर ने भी सुरक्षित एजीआई विकसित करने पर केंद्रित अपना स्वयं का एआई स्टार्टअप शुरू करने के लिए इस्तीफा दे दिया।
ब्रुनडेज द्वारा अपने "एजीआई रेडीनेस" समूह को भंग करने से कुछ ही महीने पहले कंपनी ने दीर्घकालिक एआई जोखिमों को कम करने के लिए समर्पित अपने "सुपरअलाइनमेंट" समूह को भंग कर दिया था, जिससे ओपनएआई के मूल मिशन और उसकी व्यावसायिक महत्वाकांक्षाओं के बीच तनाव उजागर हो गया था।
मुनाफे का दबाव ओपनएआई को सुरक्षित रास्ते से हटा रहा है
ओपनएआई पर कथित तौर पर दो साल के भीतर एक गैर-लाभकारी कंपनी से एक लाभकारी कंपनी में बदलने का दबाव है — अन्यथा अपने हालिया 6.6 अरब डॉलर के निवेश दौर से मिलने वाली धनराशि खोने का जोखिम है। व्यावसायीकरण की ओर यह बदलाव ब्रुंडेज के लिए लंबे समय से चिंता का विषय रहा है, जिन्होंने 2019 से ही इस पर अपनी शंकाएँ व्यक्त की हैं, जब ओपनएआई ने पहली बार अपना लाभकारी विभाग स्थापित किया था।
ओपनएआई के सीईओ सैम ऑल्टमैन को कंपनी पर मुनाफे के दबाव के कारण "सिरदर्द" हो रहा है।
अपने इस्तीफे की व्याख्या करते हुए, ब्रुंडेज ने इस प्रमुख कंपनी में शोध और प्रकाशन की अपनी स्वतंत्रता पर बढ़ते प्रतिबंधों का हवाला दिया। उन्होंने एआई नीतिगत चर्चाओं में एक स्वतंत्र आवाज़ की आवश्यकता पर ज़ोर दिया, जो उद्योग के पूर्वाग्रहों और हितों के टकराव से मुक्त हो। ओपनएआई के नेतृत्व को आंतरिक तैयारियों पर सलाह देने के बाद, उनका मानना है कि अब वे संगठन के बाहर से वैश्विक एआई शासन पर अधिक प्रभाव डाल सकते हैं।
ये प्रस्थान ओपनएआई के भीतर एक गहरे सांस्कृतिक विभाजन को भी दर्शाते हैं। कई शोधकर्ता एआई अनुसंधान को आगे बढ़ाने के लिए शामिल हुए थे और अब खुद को एक तेज़ी से उत्पाद-संचालित वातावरण में पा रहे हैं। आंतरिक संसाधन आवंटन एक विवाद का विषय बन गया है—रिपोर्टों से संकेत मिलता है कि लीके की टीम को भंग करने से पहले सुरक्षा अनुसंधान के लिए कंप्यूटिंग शक्ति से वंचित रखा गया था।
ओपनएआई को हाल के महीनों में कृत्रिम बुद्धिमत्ता विकसित करने की अपनी योजनाओं और सुरक्षा को लेकर उसकी गंभीरता को लेकर सवालों का सामना करना पड़ा है। हालाँकि चैटजीपीटी की स्थापना एक गैर-लाभकारी संस्था के रूप में हुई थी जो सुरक्षित कृत्रिम बुद्धिमत्ता के निर्माण पर शोध करने के लिए समर्पित थी, लेकिन इसकी सफलता ने इस नई तकनीक को लाभ के लिए इस्तेमाल करने के लिए महत्वपूर्ण निवेश और दबाव पैदा किया है।
[विज्ञापन_2]
स्रोत: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
टिप्पणी (0)