इस मॉडल की तर्क करने, जटिल गणितीय समस्याओं को हल करने और वैज्ञानिक अनुसंधान प्रश्नों का उत्तर देने की क्षमता को कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) - मानव जैसी संज्ञानात्मक क्षमताओं वाली मशीनों - को विकसित करने के प्रयास में एक प्रमुख कदम के रूप में देखा जा रहा है।
ओपनएआई ने कहा कि वह ओ1 मॉडल की उन्नत क्षमताओं को देखते हुए इसे जनता के सामने लाने के तरीके को लेकर विशेष रूप से "सतर्क" है। फोटो: गेटी इमेजेज़
फाइनेंशियल टाइम्स के अनुसार, ओपनएआई ने इन नए मॉडलों के जोखिम को रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियारों से संबंधित मुद्दों के लिए "मध्यम" आंका है, जो कंपनी द्वारा अब तक का सबसे अधिक आंका गया है। इसका मतलब है कि इस तकनीक ने विशेषज्ञों की जैविक हथियार बनाने की क्षमता में "काफी सुधार" किया है।
विशेषज्ञों का कहना है कि विस्तृत तर्क करने में सक्षम एआई सॉफ्टवेयर, विशेष रूप से बुरे लोगों के हाथों में, दुरुपयोग के जोखिम को बढ़ा सकता है।
मॉन्ट्रियल विश्वविद्यालय के विश्व- प्रसिद्ध एआई वैज्ञानिक, प्रोफ़ेसर योशुआ बेंगियो ने ज़ोर देकर कहा है कि यह मध्यम जोखिम स्तर एसबी 1047 जैसे एआई नियमों की तात्कालिकता को बढ़ाता है, जिस पर वर्तमान में कैलिफ़ोर्निया में बहस चल रही है। इस विधेयक में एआई निर्माताओं से जैविक हथियार विकसित करने के लिए अपने मॉडलों के दुरुपयोग के जोखिम को कम करने के लिए उपाय करने की अपेक्षा की गई है।
द वर्ज के अनुसार, एआई मॉडलों की सुरक्षा एक प्रमुख चिंता का विषय बन गई है, क्योंकि गूगल, मेटा और एंथ्रोपिक जैसी प्रौद्योगिकी कंपनियां उन्नत एआई प्रणालियों के निर्माण और सुधार के लिए दौड़ में हैं।
इन प्रणालियों में मनुष्यों को कार्य पूरा करने में मदद करने और विभिन्न क्षेत्रों में सहायता करने में महान लाभ लाने की क्षमता है, लेकिन सुरक्षा और सामाजिक जिम्मेदारी के संदर्भ में चुनौतियां भी उत्पन्न होती हैं।
काओ फोंग (एफटी, रॉयटर्स, द वर्ज के अनुसार)
[विज्ञापन_2]
स्रोत: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
टिप्पणी (0)