यह मॉडल तर्क करने, जटिल गणितीय समस्याओं को हल करने और वैज्ञानिक अनुसंधान प्रश्नों का उत्तर देने में सक्षम है, जिसे कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) - मानव जैसी संज्ञानात्मक क्षमताओं वाली मशीनों - को विकसित करने के प्रयास में एक महत्वपूर्ण कदम माना जा रहा है।
ओपनएआई ने कहा कि वह ओ1 मॉडल की उन्नत क्षमताओं को देखते हुए इसे जनता के सामने लाने को लेकर विशेष रूप से "सतर्क" है। फोटो: गेटी इमेजेज़
फाइनेंशियल टाइम्स के अनुसार, ओपनएआई ने इन नए मॉडलों के जोखिम को रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियारों से संबंधित मुद्दों के लिए "मध्यम" आंका है, जो कंपनी द्वारा अब तक का सबसे अधिक आंका गया है। इसका मतलब है कि इस तकनीक ने विशेषज्ञों की जैविक हथियार बनाने की क्षमता में "काफी सुधार" किया है।
विशेषज्ञों के अनुसार, विस्तृत तर्क करने में सक्षम एआई सॉफ्टवेयर, विशेष रूप से बुरे लोगों के हाथों में, दुरुपयोग का जोखिम बढ़ा सकता है।
मॉन्ट्रियल विश्वविद्यालय के विश्व- प्रसिद्ध एआई वैज्ञानिक, प्रोफ़ेसर योशुआ बेंगियो ने इस बात पर ज़ोर दिया है कि मध्यम जोखिम का यह स्तर एसबी 1047 जैसे एआई नियमों की तात्कालिकता को बढ़ाता है, जिस पर वर्तमान में कैलिफ़ोर्निया में बहस चल रही है। इस विधेयक में एआई निर्माताओं से जैविक हथियार विकसित करने के लिए अपने मॉडलों के दुरुपयोग के जोखिम को कम करने के उपाय करने की अपेक्षा की गई है।
द वर्ज के अनुसार, एआई मॉडलों की सुरक्षा एक प्रमुख चिंता का विषय बन गई है, क्योंकि गूगल, मेटा और एंथ्रोपिक जैसी प्रौद्योगिकी कंपनियां उन्नत एआई प्रणालियों के निर्माण और सुधार के लिए दौड़ में हैं।
इन प्रणालियों में मनुष्यों को कार्य पूरा करने में मदद करने और विभिन्न क्षेत्रों में सहायता प्रदान करने में महान लाभ प्रदान करने की क्षमता है, लेकिन साथ ही सुरक्षा और सामाजिक जिम्मेदारी की चुनौतियां भी उत्पन्न होती हैं।
काओ फोंग (एफटी, रॉयटर्स, द वर्ज के अनुसार)
[विज्ञापन_2]
स्रोत: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
टिप्पणी (0)