Dong Ngoc Ba küldött szerint a mesterséges intelligenciáról (MI) szóló törvény kihirdetése hozzájárul majd egy egységes és szinkronikus jogalap létrehozásához, amely elősegíti a fejlődést és biztosítja a hatékony kockázatkezelést a MI kutatása, fejlesztése és felhasználása terén, megfelelve a digitális kor társadalmi -gazdasági fejlődésének követelményeinek.

A küldött elmondta, hogy a tervezetet készítő szerv nagyon aktív és felelősségteljes volt, a törvénytervezet elkészítése során számos véleményt tanulmányoztak és hasznosítottak a felülvizsgáló szervtől és az illetékes szervektől. A küldött nagyra értékelte az új tervezetben beépített és átdolgozott számos tartalmat.
Ugyanakkor ajánlott folytatni a felülvizsgálatot és a kiigazítást, különösen biztosítva az összhangot és az összhangot a kapcsolódó törvényekkel, mint például a Polgári Törvénykönyv, a Termék- és Áruminőségi Törvény, a Szellemi Tulajdonról szóló Törvény, a Csúcstechnológiáról szóló Törvény, a Szabványokról és Műszaki Szabványokról szóló Törvény; biztosítva az új jogalkotási gondolkodásmódot és jogalkotási technikákat.
Emellett Dong Ngoc Ba képviselő is tett néhány konkrét ajánlást.
A mesterséges intelligenciáról szóló törvénytervezet (7–11. cikk) négy szintre osztja fel a mesterséges intelligencia rendszereinek kockázatkezelését: alacsony kockázatú, közepes kockázatú, magas kockázatú és elfogadhatatlan kockázatú.
Ba képviselő azt nyilatkozta, hogy a mesterséges intelligencia természetéből adódóan, ha a mesterséges intelligencia rendszert egyfajta terméknek vagy árucikknek tekintjük, a törvénytervezet rendelkezései ésszerűtlenek és ellentmondásosak, és nem egyeztethetők össze a termék- és áruminőségről szóló törvény rendelkezéseivel (amely a termékeket és árukat 3 csoportra osztja: alacsony kockázatú, közepes kockázatú és magas kockázatú).
Ezért ajánlott, hogy a tervezetet kidolgozó szerv gondosan kutassa fel és osztályozza a mesterséges intelligencia rendszereket a termékek és áruk minőségéről szóló törvénnyel (3 kockázati szint) összhangban a megvalósítás megkönnyítése érdekében.
„Egy » elfogadhatatlan kockázatot« jelentő mesterséges intelligenciarendszer esetében ezt tiltott tevékenységként kell kezelni, és a törvénytervezetben konkrétan tiltásként kell szabályozni. A teljesség és a szigorúság biztosítása érdekében szükséges a mesterséges intelligencia kutatásában, fejlesztésében és felhasználásában tiltott egyéb cselekményeket is kibővíteni (például: a mesterséges intelligencia használata a nemzetbiztonság megsértésére, a mesterséges intelligencia használata biometrikus adatokon alapuló megkülönböztetésre stb.)” – javasolta Ba képviselő.
A mesterséges intelligenciarendszerek által okozott károk megtérítésének felelősségével kapcsolatban a mesterséges intelligenciáról szóló törvénytervezet 30. cikkének (3) bekezdésének a) pontja kimondja: „Magas kockázatú mesterséges intelligenciarendszerek esetében: A mesterséges intelligenciarendszerek kezelése és használata során elkövetett jogsértésekből eredő károk esetén a jogsértő szervezetnek vagy személynek a polgári jog rendelkezései szerint kell megtérítenie a kárt”.
A Polgári Törvénykönyv 601. cikkének 1. pontja szerint a fokozott veszély forrásai közé tartoznak a gépjárművek, az erőátviteli rendszerek, az üzemelő ipari üzemek, a fegyverek, a robbanóanyagok, a gyúlékony anyagok, a mérgező anyagok, a radioaktív anyagok, a vadon élő állatok és a törvényben meghatározott egyéb fokozott veszély forrásai.
Dong Ngoc Ba képviselő szerint a Polgári Törvénykönyv különbséget tesz a nagy veszély forrása által okozott kár megtérítése és az egyéb esetek között, különösen a kártérítési kötelezettség meghatározásakor figyelembe vett vétkesség tekintetében. A mesterséges intelligenciáról szóló törvénytervezet 30. cikkelyének 3. záradékának a) pontjában foglalt rendelkezések alapján nem egyértelmű, hogy egy „nagy kockázatú MI-rendszer” „nagy veszély forrásának” minősül-e vagy sem. Eközben technikai és technológiai jellegét tekintve egy nagy kockázatú MI-rendszer nagy veszély forrásának minősül.
Ezért a küldött azt javasolta, hogy tanulmányozzák és vizsgálják felül a mesterséges intelligenciáról szóló törvénytervezet 30. cikkelye 3. szakaszának a) pontjában foglalt rendelkezéseket abban az irányban, hogy a magas kockázatú MI-rendszereket rendkívüli veszélyforrásként határozzák meg, annak érdekében, hogy alapot teremtsenek a MI-rendszerek által okozott károk megtérítésére vonatkozó felelősségre vonatkozó szabályok alkalmazásához a Polgári Törvénykönyv rendelkezései szerint.
A gondolkodás és a jogalkotási technikák innovációjával kapcsolatban Ba képviselő javaslatot tett egy felülvizsgálatra annak biztosítása érdekében, hogy a mesterséges intelligenciáról szóló törvény ne szabályozza a kormányzati hatáskörbe tartozó kérdéseket. Konkrétan a VI. fejezetben (ellenőrzés, vizsgálat és jogsértések kezelése) fontolják meg a speciális ellenőrzések szabályozásának mellőzését, hanem hagyják azokat a kormányra, hogy a saját hatáskörében szabályozza azokat. A VII. fejezet (mesterséges intelligencia állami irányítása) felülvizsgálata, a kormányzati hatáskörbe tartozó szabályozások, például a minisztériumok állami irányítási feladatai eltörlése... Javasolják a VI. fejezet összevonását a VII. fejezettel, mivel az ellenőrzés, vizsgálat és jogsértések kezelése lényegében a mesterséges intelligencia állami irányításának specifikus tartalmát képezi.

Siu Huong, Gia Lai tartomány nemzetgyűlési küldöttségének alelnöke érdeklődését fejezte ki az 5. fejezetben található, a mesterséges intelligencia tevékenységeivel kapcsolatos etikára és felelősségre vonatkozó szabályozások iránt.
Huong küldött szerint jelenleg számos MI-modellt úgy képeznek ki, hogy adatokat, műalkotásokat és kreatív tartalmakat gyűjtenek az internetről a szerző beleegyezése nélkül, és nincs mechanizmus a szerző kártalanítására. Ez potenciális kockázatot jelent a tartalomkészítők szellemi tulajdonjogainak megsértésére.
Ezért a küldött azt javasolta, hogy a szerkesztőség fontolja meg az 5. fejezet kiegészítését egy olyan szabályozással, amely előírja, hogy a mesterséges intelligencia rendszerfejlesztőinek egyértelmű engedélyezési mechanizmussal kell rendelkezniük, amely lehetővé teszi a tartalomtulajdonosok számára, hogy eldöntsék, beleegyeznek-e vagy megtagadják-e munkájuk felhasználását MI-képzési célokra. Ugyanakkor a kutatásnak ki kell dolgoznia egy kompenzációs vagy haszonmegosztási mechanizmust a szerzők számára, amikor munkájukat MI-modellek betanításában használják fel.

A vitában részt vevő Nguyen Van Canh képviselő (Gia Lai tartomány nemzetgyűlési küldöttségének tagja) a „mesterséges intelligencia” termékeinek használatakor aggódó fogyasztó szemszögéből vetette fel a kérdést: ha kontrollálhatatlan esemény történik, amely kárt okoz, ki lesz a felelős a kártérítésért.
Canh képviselő szerint a mesterséges intelligenciáról szóló törvénytervezet nem magyarázza el a „mesterséges intelligencia technológiát használó termékek” kifejezést. A fogyasztók csak a terméket ismerik, de csak a kutatók és tudósok tudják, mi a mesterséges intelligencia technológia.
Canh képviselő azt javasolta, hogy a mesterséges intelligenciát egyértelműen különítsék el bemeneti termékként, eszközként, félkész termékként vagy késztermékként. Ettől kezdve konkrét szabályozások vonatkoznak majd a beszállító felelősségére.
„Például a mesterséges intelligencia csak a termékbe van integrálva. Kár esetén a termék eladójának teljes felelősséget kell vállalnia, és nem hibáztathatja a mesterséges intelligenciát, „mivel a mesterséges intelligenciát gyártó cég eladja nekem, nincs felette semmilyen kontrollom” – elemezte Canh képviselő.
Forrás: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html






Hozzászólás (0)