Podle delegáta Dong Ngoc Ba přispěje vyhlášení zákona o umělé inteligenci (AI) k vytvoření jednotného a synchronního právního základu, který podpoří rozvoj a zajistí efektivní řízení rizik ve výzkumu, vývoji a využívání AI a splní požadavky socioekonomického rozvoje v digitálním věku.

Delegát uvedl, že navrhovatel byl velmi aktivní a zodpovědný, prostudoval a zohlednil mnoho názorů od hodnotící agentury a příslušných agentur, aby dokončil návrh zákona. Delegát vysoce ocenil mnoho obsahu, který byl v novém návrhu začleněn a revidován.
Zároveň se doporučuje pokračovat v revizi a úpravách, zejména s cílem zajistit soulad a synchronizaci se souvisejícími zákony, jako je občanský zákoník, zákon o jakosti výrobků a zboží, zákon o duševním vlastnictví, zákon o vysokých technologiích a zákon o normách a technických předpisech; a zajistit nové legislativní myšlení a legislativní techniky.
Kromě toho zástupce Dong Ngoc Ba předložil i několik konkrétních doporučení.
Návrh zákona o umělé inteligenci (články 7 až 11) stanoví klasifikaci řízení rizik systémů umělé inteligence do čtyř úrovní: nízké riziko, střední riziko, vysoké riziko a nepřijatelné riziko.
Poslanec Ba uvedl, že vzhledem k povaze umělé inteligence, pokud je systém umělé inteligence považován za druh produktu nebo komodity, jsou ustanovení návrhu zákona nepřiměřená a nekonzistentní a nejsou slučitelná s ustanoveními zákona o jakosti produktů a zboží (který rozděluje produkty a zboží do 3 skupin: nízké riziko, střední riziko a vysoké riziko).
Proto se doporučuje, aby navrhovatel pečlivě prozkoumal a klasifikoval systémy umělé inteligence způsobem, který bude v souladu se zákonem o jakosti výrobků a zboží (3 úrovně rizika), aby se usnadnilo jejich zavedení.
„V případě systému umělé inteligence s „ nepřijatelným rizikem“ by se k němu mělo přistupovat jako k zakázané činnosti a v návrhu zákona by měl být konkrétně upraven jako zákaz. Je nutné doplnit další zakázané činy ve výzkumu, vývoji a používání umělé inteligence (například: používání umělé inteligence k narušení národní bezpečnosti, používání umělé inteligence k diskriminaci na základě biometrických údajů atd.), aby byla zajištěna úplnost a důslednost,“ navrhl poslanec Ba.
Pokud jde o odpovědnost za náhradu škody způsobené systémy umělé inteligence, v bodě a), odstavci 3, článku 30 návrhu zákona o umělé inteligenci se stanoví: „Pro vysoce rizikové systémy umělé inteligence: V případě škody vzniklé v důsledku porušení předpisů v oblasti správy a používání systémů umělé inteligence musí organizace nebo jednotlivec, který se dopustil porušení, nahradit škodu v souladu s ustanoveními občanského práva.“
Podle článku 601 odstavce 1 občanského zákoníku zahrnují zdroje mimořádného nebezpečí motorová vozidla, systémy přenosu energie, provozovaná průmyslová zařízení, zbraně, výbušniny, hořlavé látky, toxické látky, radioaktivní látky, volně žijící zvířata a další zdroje mimořádného nebezpečí stanovené zákonem.
Podle poslance Dong Ngoc Ba občanský zákoník rozlišuje mezi náhradou škody způsobené zdrojem vysokého nebezpečí a jinými případy, zejména pokud jde o faktor zavinění při určování odpovědnosti za náhradu škody. Z ustanovení návrhu zákona o umělé inteligenci v bodě a, odstavci 3, článku 30 výše není jasné, zda je „vysoce rizikový systém umělé inteligence“ „zdrojem vysokého nebezpečí“, či nikoli. Z hlediska technické a technologické povahy má zároveň vysoce rizikový systém umělé inteligence povahu zdroje vysokého nebezpečí.
Delegát proto navrhl prostudovat a revidovat ustanovení v bodě a), odstavci 3, článku 30 návrhu zákona o umělé inteligenci ve směru definování vysoce rizikových systémů umělé inteligence jako zdrojů mimořádného nebezpečí, aby se vytvořil základ pro uplatňování předpisů o odpovědnosti za náhradu škod způsobených systémy umělé inteligence podle ustanovení občanského zákoníku.
Pokud jde o inovace v myšlení a legislativních technikách, poslanec Ba navrhl revizi, která by zajistila, že zákon o umělé inteligenci neupravuje otázky spadající do pravomoci vlády . Konkrétně v kapitole VI (inspekce, zkoumání a řešení porušení) zvážit neregulování specializovaných inspekcí, ale ponechání jejich regulace vládě v souladu s její pravomocí. Revidovat kapitolu VII (státní správa umělé inteligence), odstranit předpisy spadající do pravomoci vlády, jako jsou odpovědnosti ministerstev za státní správu... Navrhnout sloučení kapitoly VI s kapitolou VII, protože inspekce, zkoumání a řešení porušení jsou v podstatě specifickým obsahem státní správy umělé inteligence.

Zástupce vedoucího delegace Národního shromáždění provincie Gia Lai Siu Huong vyjádřil zájem o předpisy týkající se etiky a odpovědnosti v oblasti umělé inteligence v kapitole 5.
Podle delegáta Huonga je v současné době mnoho modelů umělé inteligence trénováno sběrem dat, uměleckých děl a kreativního obsahu z internetu bez souhlasu autora a neexistuje žádný mechanismus, jak autora odškodnit. To představuje potenciální riziko porušení práv duševního vlastnictví tvůrců obsahu.
Delegát proto navrhl, aby navrhovatel zvážil doplnění kapitoly 5 o nařízení, které by stanovilo, že vývojáři systémů umělé inteligence musí mít jasný mechanismus povolování, který by vlastníkům obsahu umožnil souhlasit s použitím jejich práce pro účely školení v oblasti umělé inteligence, nebo odmítnout jeho použití. Zároveň by měl výzkum zavést mechanismus odměňování nebo sdílení výhod pro autory, pokud je jejich práce použita při školení modelů umělé inteligence.

Poslanec Nguyen Van Canh (člen delegace Národního shromáždění provincie Gia Lai), který se účastnil diskuse, nastolil otázku z pohledu spotřebitele, který se obává používání produktů s „umělou inteligencí“. Pokud dojde k incidentu mimo kontrolu, který způsobí škodu, kdo bude odpovědný za kompenzaci.
Podle poslance Canha návrh zákona o umělé inteligenci nevysvětluje pojem „produkty využívající technologii umělé inteligence“. Spotřebitelé znají pouze produkt, ale pouze výzkumníci a vědci vědí, co technologie umělé inteligence je.
Poslanec Canh navrhl jasné rozlišení umělé inteligence jako vstupního produktu, nástroje, polotovaru nebo hotového produktu. Na základě toho budou existovat specifická pravidla týkající se odpovědnosti dodavatele.
„Například umělá inteligence je integrována pouze do produktu. Když dojde k poškození, prodejce daného produktu musí nést plnou odpovědnost a nemůže za to vinit umělou inteligenci, protože mi ji prodává společnost, která umělou inteligenci vyrábí, takže nad ní nemám žádnou kontrolu,“ analyzoval poslanec Canh.
Zdroj: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html






Komentář (0)