दोनों कंपनियाँ अमेरिकी संघीय एजेंसी, राष्ट्रीय मानक एवं प्रौद्योगिकी संस्थान (एनआईएसटी) की एक इकाई, यूएस एआई सेफ्टी इंस्टीट्यूट के साथ साझेदारी करेंगी। इसे एआई तकनीक के प्रबंधन और निगरानी में एक महत्वपूर्ण कदम के रूप में देखा जा रहा है, जो ओपनएआई के चैटजीपीटी के लॉन्च के बाद से एक प्रमुख चिंता का विषय रहा है।
अमेरिकी एआई सेफ्टी इंस्टीट्यूट की निदेशक एलिजाबेथ केली ने कहा, "यह सिर्फ शुरुआत है, लेकिन एआई के भविष्य को जिम्मेदारी से प्रबंधित करने के प्रयास में यह एक महत्वपूर्ण मील का पत्थर है।"
समझौते के तहत, अमेरिकी एआई सुरक्षा संस्थान दोनों कंपनियों को उनके मॉडलों में संभावित सुरक्षा सुधारों पर, उनके सार्वजनिक होने से पहले और बाद में, प्रतिक्रिया प्रदान करेगा। इस प्रक्रिया के दौरान संस्थान यूके एआई सुरक्षा संस्थान के साथ भी मिलकर काम करेगा।
एंथ्रोपिक के सह-संस्थापक और नीति प्रमुख जैक क्लार्क ने कहा, "अमेरिकी एआई सेफ्टी इंस्टीट्यूट के साथ साझेदारी, व्यापक तैनाती से पहले हमारे मॉडलों का गहन परीक्षण करने के लिए उनकी व्यापक विशेषज्ञता का लाभ उठाती है। इससे जोखिमों की पहचान करने और उन्हें कम करने की हमारी क्षमता बढ़ती है, जिससे ज़िम्मेदार एआई विकास को बढ़ावा मिलता है।"
यह कदम 2023 में जारी होने वाले व्हाइट हाउस एआई कार्यकारी आदेश को लागू करने के प्रयास का हिस्सा है, जिसका उद्देश्य अमेरिका में एआई मॉडलों की तीव्र तैनाती के लिए एक कानूनी ढांचा तैयार करना है।
लेकिन जबकि संघीय सरकार एक स्वैच्छिक दृष्टिकोण अपना रही है, अमेरिका के टेक हब, कैलिफोर्निया के सांसदों ने 28 अगस्त को एक राज्य-स्तरीय एआई सुरक्षा विधेयक पारित किया। यदि राज्यपाल द्वारा इस विधेयक पर हस्ताक्षर किए जाते हैं, तो यह एआई उद्योग पर सख्त नियम लागू करेगा।
ओपनएआई के सीईओ सैम ऑल्टमैन ने राज्य स्तर के बजाय राष्ट्रीय स्तर पर एआई को विनियमित करने के लिए समर्थन व्यक्त किया है, और तर्क दिया है कि इससे एआई के क्षेत्र में अनुसंधान और नवाचार में बाधा उत्पन्न होने के जोखिम से बचने में मदद मिलेगी।
अग्रणी प्रौद्योगिकी कंपनियों और अमेरिकी सरकार का यह कदम तेजी से विकसित हो रहे एआई क्षेत्र में नवाचार और सुरक्षा के बीच संतुलन बनाने की दिशा में एक प्रवृत्ति को दर्शाता है।
[विज्ञापन_2]
स्रोत: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
टिप्पणी (0)