Laut dem Delegierten Dong Ngoc Ba wird die Verkündung des Gesetzes über Künstliche Intelligenz (KI) dazu beitragen, eine einheitliche und synchrone Rechtsgrundlage zu schaffen, die sowohl die Entwicklung fördert als auch ein effektives Risikomanagement in Forschung, Entwicklung und Anwendung von KI gewährleistet und damit den Anforderungen der sozioökonomischen Entwicklung im digitalen Zeitalter gerecht wird.

Der Delegierte erklärte, die zuständige Behörde habe sehr aktiv und verantwortungsbewusst gearbeitet und zahlreiche Stellungnahmen der Prüfbehörde und anderer relevanter Stellen berücksichtigt, um den Gesetzentwurf fertigzustellen. Er lobte insbesondere die vielen Inhalte, die in den neuen Entwurf eingearbeitet und überarbeitet wurden.
Gleichzeitig wird empfohlen, die Überprüfung und Anpassung fortzusetzen, insbesondere im Hinblick auf die Gewährleistung der Übereinstimmung und Synchronisierung mit einschlägigen Gesetzen wie dem Bürgerlichen Gesetzbuch, dem Gesetz über die Qualität von Produkten und Waren, dem Gesetz über geistiges Eigentum, dem Gesetz über Hochtechnologie, dem Gesetz über Normen und technische Vorschriften; um ein neues legislatives Denken und neue legislative Techniken zu gewährleisten.
Darüber hinaus machte Abgeordneter Dong Ngoc Ba auch einige konkrete Empfehlungen.
Der Gesetzentwurf zur künstlichen Intelligenz (Artikel 7 bis 11) sieht die Einteilung des Risikomanagements von KI-Systemen in vier Stufen vor: niedriges Risiko, mittleres Risiko, hohes Risiko und inakzeptables Risiko.
Abgeordneter Ba sagte, dass die Bestimmungen des Gesetzesentwurfs angesichts der Natur der KI, wenn das KI-System als eine Art Produkt oder Ware betrachtet wird, unangemessen und widersprüchlich seien und nicht mit den Bestimmungen des Gesetzes über die Produkt- und Warenqualität (Einteilung von Produkten und Waren in 3 Gruppen: niedriges Risiko, mittleres Risiko und hohes Risiko) vereinbar seien.
Daher wird empfohlen, dass die zuständige Behörde KI-Systeme sorgfältig prüft und in Übereinstimmung mit dem Gesetz über die Produkt- und Warenqualität (3 Risikostufen) klassifiziert, um die Umsetzung zu erleichtern.
„Im Falle eines KI-Systems mit einem „ inakzeptablen Risiko“ sollte dies als verbotene Tätigkeit behandelt und im Gesetzentwurf ausdrücklich als Verbot geregelt werden. Um Vollständigkeit und Strenge zu gewährleisten, müssen weitere verbotene Handlungen in Forschung, Entwicklung und Anwendung von KI hinzugefügt werden (beispielsweise die Nutzung von KI zur Gefährdung der nationalen Sicherheit, die Nutzung von KI zur Diskriminierung auf Grundlage biometrischer Daten usw.)“, schlug Abgeordneter Ba vor.
Hinsichtlich der Haftung für Schäden, die durch KI-Systeme verursacht werden, heißt es in Artikel 30 Absatz 3 Nummer a des Gesetzentwurfs über künstliche Intelligenz: „Für KI-Systeme mit hohem Risiko: Im Falle von Schäden, die durch Verstöße gegen die Verwaltung und Nutzung von KI-Systemen entstehen, muss die verstoßende Organisation oder Person den Schaden nach den Bestimmungen des Zivilrechts ersetzen.“
Gemäß Artikel 601 Absatz 1 des Bürgerlichen Gesetzbuches zählen zu den Quellen extremer Gefahr Kraftfahrzeuge, Stromübertragungssysteme, in Betrieb befindliche Industrieanlagen, Waffen, Sprengstoffe, entzündbare Stoffe, giftige Stoffe, radioaktive Stoffe, wilde Tiere und andere gesetzlich vorgeschriebene Quellen extremer Gefahr.
Laut Abgeordnetem Dong Ngoc Ba unterscheidet das Zivilgesetzbuch zwischen Schadensersatzansprüchen bei Schäden, die durch eine Quelle hoher Gefahr verursacht werden, und anderen Fällen, insbesondere hinsichtlich des Verschuldensfaktors bei der Bestimmung der Schadensersatzpflicht. Aus den Bestimmungen des Gesetzentwurfs zur Künstlichen Intelligenz, insbesondere aus Artikel 30 Absatz 3 Nummer a, geht nicht eindeutig hervor, ob ein „KI-System mit hohem Risiko“ als „Quelle hoher Gefahr“ einzustufen ist. Technisch und technologisch betrachtet weist ein solches System jedoch die Eigenschaft einer Quelle hoher Gefahr auf.
Daher schlug der Delegierte vor, die Bestimmungen unter Punkt a, Absatz 3, Artikel 30 des Entwurfs des Gesetzes über künstliche Intelligenz in Richtung der Definition von KI-Systemen mit hohem Risiko als Quellen extremer Gefahr zu prüfen und zu überarbeiten, um eine Grundlage für die Anwendung von Regelungen zur Haftung für Schäden zu schaffen, die durch KI-Systeme gemäß den Bestimmungen des Bürgerlichen Gesetzbuches verursacht werden.
Im Hinblick auf innovative Denkansätze und Gesetzgebungsverfahren schlug Abgeordneter Ba eine Überprüfung vor, um sicherzustellen, dass das Gesetz über Künstliche Intelligenz keine Angelegenheiten regelt, die in die Zuständigkeit der Regierung fallen. Konkret soll in Kapitel VI (Inspektion, Prüfung und Ahndung von Verstößen) die Durchführung spezialisierter Inspektionen nicht geregelt, sondern der Regierung zur Regelung gemäß ihrer Zuständigkeit überlassen werden. Kapitel VII (Staatliche Steuerung von KI) soll überarbeitet und Regelungen, die in die Zuständigkeit der Regierung fallen, wie beispielsweise die Zuständigkeiten der Ministerien für die staatliche Steuerung, gestrichen werden. Es wird vorgeschlagen, Kapitel VI mit Kapitel VII zusammenzuführen, da Inspektion, Prüfung und Ahndung von Verstößen wesentliche Bestandteile der staatlichen Steuerung von KI sind.

Die stellvertretende Leiterin der Delegation der Nationalversammlung der Provinz Gia Lai, Siu Huong, zeigte Interesse an den Bestimmungen über Ethik und Verantwortung bei KI-Aktivitäten in Kapitel 5.
Laut Delegierter Huong werden derzeit viele KI-Modelle trainiert, indem Daten, Kunstwerke und kreative Inhalte ohne Zustimmung der Urheber aus dem Internet gesammelt werden, und es gibt keinen Mechanismus zur Entschädigung der Urheber. Dies birgt die Gefahr einer Verletzung der Urheberrechte von Kreativen.
Der Delegierte schlug daher vor, dass die zuständige Behörde Kapitel 5 um eine Regelung ergänzt, die KI-Systementwickler verpflichtet, einen klaren Genehmigungsmechanismus bereitzustellen, der es Rechteinhabern ermöglicht, der Nutzung ihrer Werke für KI-Trainingszwecke zuzustimmen oder diese abzulehnen. Gleichzeitig sollte die Forschung einen Mechanismus zur Entschädigung oder Gewinnbeteiligung für Urheber entwickeln, deren Werke im KI-Modelltraining verwendet werden.

Der Abgeordnete Nguyen Van Canh (Mitglied der Delegation der Nationalversammlung aus der Provinz Gia Lai) nahm an der Diskussion teil und sprach das Thema aus der Perspektive eines besorgten Verbrauchers an, der bei der Verwendung von „KI“-Produkten besorgt ist und sich fragt, wer im Falle eines unvorhergesehenen Vorfalls, der einen Schaden verursacht, für die Entschädigung verantwortlich ist.
Laut Abgeordnetem Canh definiert der Gesetzentwurf zur künstlichen Intelligenz den Begriff „Produkte, die KI-Technologie nutzen“ nicht. Verbraucher kennen zwar das Produkt, aber nur Forscher und Wissenschaftler wissen, was KI-Technologie eigentlich ist.
Abgeordneter Canh schlug vor, KI klar als Inputprodukt, Mittel zum Zweck, Halbfertigprodukt oder Fertigprodukt zu unterscheiden. Darauf aufbauend sollen spezifische Regelungen zur Verantwortung des Anbieters erlassen werden.
„KI ist beispielsweise nur in das Produkt integriert. Wenn ein Schaden entsteht, muss der Verkäufer dieses Produkts die volle Verantwortung tragen und kann ihn nicht der KI anlasten, denn „das Unternehmen, das die KI herstellt, verkauft sie mir, ich habe keine Kontrolle darüber“, analysierte Abgeordneter Canh.
Quelle: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html






Kommentar (0)