रूस के केंद्रीय बैंक ने कृत्रिम बुद्धिमत्ता (एआई) प्रौद्योगिकी के प्रबंधन में एक महत्वपूर्ण कदम आगे बढ़ाया है, जब उसने वित्तीय क्षेत्र में एआई के विकास और अनुप्रयोग पर आधिकारिक तौर पर आचार संहिता जारी की है।
9 जुलाई को प्रकाशित इस संहिता में बैंकिंग उद्योग में एआई प्रौद्योगिकी के सतत विकास को सुनिश्चित करने के लिए पांच मुख्य सिद्धांत निर्धारित किए गए हैं।
मॉस्को में वीएनए संवाददाता के अनुसार, आचार संहिता पांच मुख्य स्तंभों पर आधारित है: जन-केंद्रित, निष्पक्ष, पारदर्शी, सुरक्षित और जिम्मेदार जोखिम प्रबंधन।
यद्यपि यह दस्तावेज परामर्शात्मक प्रकृति का है, लेकिन इससे नई प्रौद्योगिकी में जनता का विश्वास बढ़ने तथा एआई के विकास और अनुप्रयोग में संभावित जोखिमों को न्यूनतम करने की उम्मीद है।
"मानव-केंद्रित" सिद्धांत के तहत, बैंकों को यह आवश्यक है कि वे ग्राहकों को स्पष्ट रूप से सूचित करें कि वे कब एआई के साथ बातचीत करते हैं, साथ ही उपयोगकर्ताओं के प्रौद्योगिकी का उपयोग न करने के अधिकार का भी सम्मान करें।
विशेष रूप से, वित्तीय संस्थाओं को कमजोर समूहों जैसे कि बुजुर्गों, विकलांग लोगों या सीमित शिक्षा वाले लोगों पर ध्यान देने की आवश्यकता है।
निष्पक्षता के मोर्चे पर, संहिता डेटा प्रसंस्करण और एआई निर्णय लेने में राष्ट्रीयता, भाषा, नस्ल, राजनीतिक राय या धर्म के आधार पर भेदभाव को प्रतिबंधित करती है।
पारदर्शिता सिद्धांत के तहत बैंकों को एआई के उपयोग के जोखिमों और स्थितियों के बारे में जानकारी सार्वजनिक रूप से प्रकट करनी होती है, जिसमें एआई-जनित सामग्री को लेबल करना भी शामिल है।
सुरक्षा सुनिश्चित करने के लिए, रूस का केंद्रीय बैंक वित्तीय संस्थानों से व्यक्तिगत जानकारी की गोपनीयता बनाए रखते हुए, डेटा और एआई प्रणालियों की गुणवत्ता की कठोर जाँच करने की अपेक्षा करता है। बैंकों को एआई गुणवत्ता मूल्यांकन संकेतक स्थापित करने और संवेदनशील डेटा की सुरक्षा के उपाय विकसित करने की आवश्यकता होती है।
जोखिम प्रबंधन के संबंध में, वित्तीय संस्थानों को सख्त प्रबंधन प्रक्रियाएं स्थापित करने, नियमों के अनुपालन की निगरानी के लिए एक व्यक्ति को नियुक्त करने और एआई मॉडल, जोखिम आकलन और उपयोगकर्ता प्रतिक्रिया पर जानकारी संग्रहीत करने के लिए एक प्रणाली बनाए रखने की आवश्यकता होती है।
स्रोत: https://www.vietnamplus.vn/nga-ban-hanh-quy-tac-dao-duc-ai-trong-linh-vuc-tai-chinh-post1048870.vnp
टिप्पणी (0)