Vietnam má první soubor pravidel pro etiku umělé inteligence
Očekává se, že umělá inteligence (AI) přinese velké výhody lidem, společnosti a vietnamské ekonomice . Spolu s aplikací AI Vietnam zpočátku zkoumal a přijal opatření k minimalizaci rizik v procesu vývoje a používání AI, přičemž vyvažoval ekonomické, etické a právní faktory.
To je také důvod, proč Ministerstvo vědy a technologií (MOST) vydalo soubor dokumentů, které upravují řadu zásad pro zodpovědný výzkum a vývoj systémů umělé inteligence.
Pokyny stanoví řadu obecných zásad a dobrovolných doporučení pro referenci a aplikaci ve výzkumu, návrhu, vývoji a poskytování systémů umělé inteligence.
Vědecké a technologické agentury, organizace, podniky a jednotlivci zapojení do výzkumu, návrhu, vývoje a poskytování systémů umělé inteligence se vyzývají k uplatňování tohoto pokynu.

Výzkum a vývoj systémů umělé inteligence ve Vietnamu proto musí být založen na základním hledisku směřujícím k člověku zaměřené společnosti, kde každý může využívat výhod umělé inteligence, a musí být zajištěna rozumná rovnováha mezi přínosy a riziky.
Výzkumné a vývojové aktivity v oblasti systémů umělé inteligence ve Vietnamu si kladou za cíl zajistit technologickou neutralitu. Ministerstvo vědy a technologií ve všech případech podporuje výměny a diskuse za účasti příslušných stran. Principy a směrnice budou i nadále zkoumány a aktualizovány tak, aby odpovídaly praktickým situacím.
Ministerstvo vědy a technologií uvedlo, že cílem vzniku této sady dokumentů je podpořit zájem o výzkum, vývoj a používání umělé inteligence ve Vietnamu bezpečným a zodpovědným způsobem, minimalizovat negativní dopady na lidi a komunitu. To zvýší důvěru uživatelů a společnosti v umělou inteligenci a usnadní výzkum a vývoj umělé inteligence ve Vietnamu.
Zásady pro zodpovědný vývoj umělé inteligence
V dokumentu jsou vývojáři povzbuzováni k prokázání ducha spolupráce a podpoře inovací prostřednictvím propojení a interakce systémů umělé inteligence. Vývojáři musí zajistit transparentnost kontrolou vstupů/výstupů systémů umělé inteligence a schopností vysvětlit relevantní analytické údaje.
Vývojáři musí věnovat pozornost schopnosti ovládat systémy umělé inteligence a předem posoudit související rizika. Jednou z metod posouzení rizik je provedení testování v odděleném prostoru, jako je laboratoř nebo prostředí, kde je zaručena bezpečnost a ochrana, před jejich uvedením do praxe.
Kromě toho, aby byla zajištěna ovladatelnost systémů umělé inteligence, měli by vývojáři věnovat pozornost monitorování systému (existenci nástrojů pro hodnocení/monitorování nebo úpravám/aktualizaci na základě zpětné vazby od uživatelů) a reakčním opatřením (vypnutí systému, vypnutí sítě atd.) prováděným lidmi nebo důvěryhodnými systémy umělé inteligence.

Vývojáři musí zajistit, aby systém umělé inteligence nezpůsobil újmu na životě, těle ani majetku uživatelů nebo třetích stran, a to i prostřednictvím zprostředkovatelů; musí věnovat pozornost bezpečnosti systému umělé inteligence, spolehlivosti a schopnosti systému odolat fyzickým útokům nebo nehodám; musí zajistit, aby systém umělé inteligence nenarušoval soukromí uživatelů ani třetích stran. Práva na ochranu soukromí uvedená v zásadě zahrnují právo na soukromí prostoru (klid v osobním životě), právo na ochranu informací (osobních údajů) a důvěrnost komunikace.
Při vývoji systémů umělé inteligence musí vývojáři dbát zvláštní pozornosti na respektování lidských práv a důstojnosti. V maximální možné míře a v závislosti na charakteristikách použité technologie musí vývojáři přijmout opatření, aby zajistili, že v trénovacích datech nezpůsobí diskriminaci nebo nespravedlnost v důsledku zaujatosti (předsudků). Nejen to, vývojáři musí nést odpovědnost vůči zúčastněným stranám a podporovat uživatele.
Zdroj: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html






Komentář (0)