Klasifikace systémů umělé inteligence do čtyř úrovní rizika
Ráno 21. listopadu si Národní shromáždění vyslechlo prezentaci a zprávu o projednání návrhu zákona o umělé inteligenci.
Ministr vědy a technologií Nguyen Manh Hung při prezentaci zprávy uvedl, že návrh zákona byl vytvořen s cílem vytvořit průlomový právní koridor pro umělou inteligenci, a to příznivé právní prostředí pro podporu inovací, zvýšení národní konkurenceschopnosti a zároveň pro řízení rizik, ochranu národních zájmů, lidských práv a digitální suverenity.

Zprávu předložil ministr vědy a technologií Nguyen Manh Hung.
Pro regulaci systémů umělé inteligence návrh zákona přijal přístup řízení založený na riziku, klasifikuje umělou inteligenci do čtyř úrovní a ukládá odpovídající povinnosti.
Systémy umělé inteligence jsou klasifikovány do čtyř úrovní rizika: Nepřijatelné riziko: systém má potenciál způsobit vážnou a nenapravitelnou škodu.
Vysoce rizikový je systém, který může způsobit poškození života, zdraví, práv a oprávněných zájmů; střední riziko je systém, u kterého existuje riziko zmatení, manipulace nebo klamání uživatelů. Nízké riziko představují zbývající případy.
Dodavatel musí systém před uvedením do oběhu sám klasifikovat a je zodpovědný za výsledky klasifikace.
U systémů se středním a vysokým rizikem musí dodavatel informovat Ministerstvo vědy a technologií prostřednictvím jednotného kontaktního portálu. Příslušný orgán má právo klasifikaci přezkoumat a přehodnotit.
Zákon stanoví odpovědnost za transparentnost, označování a odpovědnost. Konkrétně musí implementující strana jasně upozornit a označit obsah vytvořený nebo upravený s falešnými prvky, simulující skutečné osoby (deepfake), které mohou vést k nedorozuměním, nebo obsah vytvořený umělou inteligencí pro komunikační a reklamní účely.
Dodavatelé a implementátoři musí na požádání dotčených stran vysvětlit výsledky manipulace s vysoce rizikovými systémy.
V případě incidentu jsou strany zodpovědné za neprodlenou nápravu, pozastavení nebo stažení systému a jeho nahlášení prostřednictvím jednotného kontaktního portálu. Z důvodu řízení rizik je v případě nepřijatelného rizika zakázáno vyvíjet, dodávat, nasazovat nebo používat tyto systémy v jakékoli formě.
Seznam zakázaných látek zahrnuje systémy používané k činům zakázaným zákonem, s využitím falešných prvků k klamání, manipulaci a způsobování vážné újmy, zneužívání slabin zranitelných skupin (dětí, starších osob atd.) nebo vytváření falešného obsahu, který vážně poškozuje národní bezpečnost.
U systémů s vysokým rizikem musí být před uvedením do oběhu nebo používáním posouzena jejich vhodnost.
Posouzení může mít formu certifikace shody (prováděné akreditovaným orgánem) nebo dohledu nad shodou (sebehodnocení dodavatelem).
Premiér předepisuje seznam vysoce rizikových systémů umělé inteligence odpovídající jednotlivým formám hodnocení.
Podrobné povinnosti jsou stanoveny pro dodavatele (zavedení opatření pro řízení rizik, správa školicích dat, příprava technické dokumentace, zajištění lidského dohledu) a implementátora (provozování v souladu s určeným účelem, zajištění bezpečnosti, plnění povinností týkajících se transparentnosti).
Zahraniční dodavatelé s vysoce rizikovými systémy musí mít ve Vietnamu zplnomocněného zástupce a musí ve Vietnamu zřídit právnickou osobu, pokud systém podléhá povinné certifikaci shody.
U modelů se středním, nízkým rizikem a víceúčelových modelů musí systém středního rizika zajistit transparentnost a označování.
Návrh rovněž stanoví odpovědnosti vývojářů a uživatelů modelů umělé inteligence pro všeobecné použití za účelem zajištění souladu s vietnamským právem. Na modely GPAI se systémovým rizikem (s potenciálem dalekosáhlých dopadů) se vztahují zpřísněné povinnosti, včetně posouzení dopadů, vedení technické záznamů a oznamování Ministerstvu vědy a technologií.
Modely umělé inteligence s otevřeným zdrojovým kódem pro všeobecné použití jsou však z těchto rozšířených povinností vyňaty; pokud je k vývoji systému umělé inteligence použit model s otevřeným zdrojovým kódem, musí organizace, která jej používá, provést řízení rizik daného systému.
Zvažte použití neviditelného označování pro snížení nákladů
Z pohledu zkoumání uvedl předseda Výboru pro vědu, technologii a životní prostředí Nguyen Thanh Hai, že výbor shledává označování produktů umělé inteligence závaznou etickou a právní odpovědností k budování důvěry v éře umělé inteligence.

Předseda Výboru pro vědu, technologie a životní prostředí Nguyen Thanh Hai.
Výbor v zásadě souhlasí s ustanoveními o označování v návrhu zákona, nicméně doporučuje odkázat se na mezinárodní zkušenosti s produkty vyrobenými umělou inteligencí, aby se zajistila jejich vhodnost pro praktické podmínky ve Vietnamu.
U produktů a hardwarových zařízení s aplikacemi umělé inteligence (jako jsou ledničky, televizory, pračky atd.) se doporučuje provést průzkum a zvážit aplikaci neviditelných vodoznaků, aby se snížily náklady a postupy a zároveň byla zajištěna správa a sledovatelnost.
Zároveň se navrhuje stanovit v návrhu zákona zásady, podle kterých má vláda poskytovat podrobné pokyny k formulářům, technickým normám a výjimkám.
Existuje návrh na změnu nařízení o označování z povinného na doporučené s minimálními technickými pokyny.
Zároveň je nutné v řadě oblastí pilotně zavést mechanismus dobrovolného označování; zároveň je třeba posílit komunikaci, aby se předešlo nedorozumění, že „žádné označení znamená, že se nejedná o produkt umělé inteligence“.
Pokud jde o klasifikaci rizik, Výbor se domnívá, že čtyřúrovňová klasifikace, zatímco zákon o jakosti výrobků a zboží klasifikuje výrobky a zboží do tří typů, je nekonzistentní, pokud je umělá inteligence považována za výrobky a zboží.
Předpisy o certifikaci shody pro vysoce rizikové systémy umělé inteligence nejsou v souladu se zásadami řízení vysoce rizikových výrobků a zboží, jak jsou stanoveny v zákoně o jakosti výrobků a zboží.
Proto se doporučuje pokračovat v revizi a pečlivém porovnávání ustanovení návrhu zákona se současnými zákony.
Zdroj: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Komentář (0)