:ओपनएआई के GPT-o1 लर्निंग इंटरफ़ेस को दर्शाता फ़ोन - फ़ोटो: फ़ाइनेंशियल टाइम्स
13 सितंबर को फाइनेंशियल टाइम्स के अनुसार, कंपनी ओपनएआई ने स्वीकार किया कि जीपीटी-ओ1 मॉडल, जिसे 12 सितंबर को लॉन्च किया गया था, जैविक हथियार बनाने के लिए कृत्रिम बुद्धिमत्ता (एआई) के शोषण के जोखिम को "काफी" बढ़ा देता है।
ओपनएआई द्वारा प्रकाशित एक दस्तावेज़, जिसमें GPT-o1 के काम करने के तरीके के बारे में बताया गया है, में कहा गया है कि नए मॉडल में रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु हथियारों से संबंधित मुद्दों के लिए "मध्यम जोखिम स्तर" है। यह ओपनएआई द्वारा अपने एआई मॉडलों के लिए अब तक का सबसे अधिक जोखिम स्तर है।
ओपनएआई के अनुसार, इसका मतलब यह है कि जीपीटी-ओ1 उन विशेषज्ञों की क्षमता में "नाटकीय रूप से सुधार" कर सकता है जो जैव हथियार बनाने के लिए इसका दुरुपयोग करना चाहते हैं।
ओपनएआई की मुख्य प्रौद्योगिकी अधिकारी (सीटीओ) मीरा मुराती ने कहा कि हालांकि जीपीटी-ओ1 अभी भी परीक्षण के चरण में है, लेकिन मॉडल की उन्नत क्षमताएं अभी भी कंपनी को जनता के लिए अपने रोडमैप के बारे में बेहद "सतर्क" रहने के लिए मजबूर करती हैं।
सुश्री मुराती ने यह भी पुष्टि की कि कंपनी द्वारा विकसित मॉडल की सीमाओं का परीक्षण करने के लिए ओपनएआई द्वारा नियुक्त विशेषज्ञों की एक बहु-विषयक टीम द्वारा मॉडल का गहन परीक्षण किया गया था।
सुश्री मुराती ने बताया कि परीक्षण प्रक्रिया से पता चला कि जीपीटी-ओ1 मॉडल अपने पूर्ववर्तियों की तुलना में सामान्य सुरक्षा मानदंडों को बेहतर ढंग से पूरा करता है।
यहीं नहीं रुकते हुए, ओपनएआई के प्रतिनिधियों ने यह भी आश्वासन दिया कि जीपीटी-ओ1 का परीक्षण संस्करण "तैनाती के लिए सुरक्षित" है और विकसित प्रौद्योगिकियों की तुलना में अधिक जटिल जोखिम पैदा नहीं कर सकता है।
उपरोक्त आश्वासनों के बावजूद, वैज्ञानिक समुदाय का एक बड़ा हिस्सा और एआई में रुचि रखने वाले लोग अभी भी इस तकनीक के विकास की दिशा के बारे में बहुत आशावादी नहीं हैं।
इस बात को लेकर चिंताएं बढ़ रही हैं कि एआई बहुत तेजी से विकसित हो रहा है और इसे नियंत्रित करने वाले नियमों के विकास और अनुमोदन की गति को पीछे छोड़ रहा है।
मॉन्ट्रियल विश्वविद्यालय में कंप्यूटर विज्ञान के प्रमुख और दुनिया के अग्रणी एआई वैज्ञानिकों में से एक प्रोफेसर योशुआ बेंगियो ने कहा कि यदि ओपनएआई अब रासायनिक और जैविक हथियारों का "मध्यम जोखिम" उत्पन्न करता है, तो यह "केवल कानूनों के महत्व और तात्कालिकता को पुष्ट करता है", जैसे कि इस क्षेत्र को विनियमित करने के लिए कैलिफोर्निया में जिस कानून पर गरमागरम बहस चल रही है।
इस वैज्ञानिक ने इस बात पर जोर दिया कि उपरोक्त संस्थान विशेष रूप से एआई के संदर्भ में आवश्यक हैं जो तेजी से कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) के स्तर के करीब पहुंच रहा है, जिसका अर्थ है मनुष्यों के बराबर तर्क करने की क्षमता होना।
श्री बेंगियो ने कहा, "अग्रणी एआई मॉडल एजीआई के जितना करीब पहुंचेंगे, अगर उचित सावधानियां नहीं बरती गईं तो जोखिम उतना ही अधिक बढ़ जाएगा। एआई की बेहतर तर्क क्षमता और धोखाधड़ी के लिए इसका उपयोग बेहद खतरनाक है।"
[विज्ञापन_2]
स्रोत: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
टिप्पणी (0)