De Russische Centrale Bank heeft zojuist een belangrijke stap gezet in het beheer van kunstmatige intelligentie (AI)-technologie door officieel een ethische code uit te vaardigen over de ontwikkeling en toepassing van AI in de financiële sector.
De code, die op 9 juli werd gepubliceerd, bevat vijf kernprincipes om de duurzame ontwikkeling van AI-technologie in de bankensector te waarborgen.
Volgens een VNA-verslaggever in Moskou is de gedragscode gebaseerd op vijf pijlers: mensgericht, eerlijk, transparant, veilig en verantwoord risicobeheer.
Hoewel het document adviserend van aard is, wordt verwacht dat het het publieke vertrouwen in nieuwe technologie zal vergroten en tegelijkertijd de potentiële risico's bij de ontwikkeling en toepassing van AI zal minimaliseren.
Volgens het principe van ‘mensgerichtheid’ moeten banken hun klanten duidelijk informeren wanneer zij met AI interacteren, waarbij het recht van gebruikers om zich af te melden voor het gebruik van deze technologie wordt gerespecteerd.
Financiële instellingen moeten vooral aandacht besteden aan kwetsbare groepen, zoals ouderen, mensen met een beperking of mensen met een beperkte opleiding.
Wat eerlijkheid betreft, verbiedt de Code discriminatie op grond van nationaliteit, taal, ras, politieke overtuiging of religie bij gegevensverwerking en AI-besluitvorming.
Het transparantiebeginsel vereist dat banken openbaar informatie openbaar maken over de risico's en voorwaarden van het gebruik van AI, inclusief het labelen van door AI gegenereerde content.
Om de veiligheid te waarborgen, eist de Centrale Bank van Rusland dat financiële instellingen strenge controles uitvoeren op de kwaliteit van data en AI-systemen, waarbij de vertrouwelijkheid van persoonsgegevens gewaarborgd blijft. Banken zijn verplicht indicatoren voor de kwaliteit van AI-systemen vast te stellen en maatregelen te ontwikkelen om gevoelige gegevens te beschermen.
Op het gebied van risicomanagement moeten financiële instellingen strikte managementprocessen opzetten, een persoon aanstellen die toezicht houdt op de naleving van de regels en een systeem onderhouden om informatie over AI-modellen, risicobeoordelingen en gebruikersfeedback op te slaan.
Bron: https://www.vietnamplus.vn/nga-ban-hanh-quy-tac-dao-duc-ai-trong-linh-vuc-tai-chinh-post1048870.vnp
Reactie (0)