Vietnam.vn - Nền tảng quảng bá Việt Nam

Naruszenia administracyjne w dziedzinie sztucznej inteligencji mogą skutkować karą grzywny w wysokości do 2 miliardów VND

Rząd zaproponował maksymalną karę pieniężną w wysokości 2 mld VND dla organizacji i 1 mld VND dla osób fizycznych za naruszenia administracyjne w dziedzinie sztucznej inteligencji.

VTC NewsVTC News21/11/2025

Kontynuując program 10. sesji, rano 21 listopada minister nauki i technologii Nguyen Manh Hung przedstawił Zgromadzeniu Narodowemu projekt ustawy o sztucznej inteligencji.

Minister nauki i technologii Nguyen Manh Hung.

Minister nauki i technologii Nguyen Manh Hung.

Minister Nguyen Manh Hung powiedział, że ustawa wprowadza systematyczne i kompleksowe środki mające na celu zrównoważenie zarządzania i promocji badań, rozwoju, wdrażania i stosowania sztucznej inteligencji (AI) w Wietnamie.

Ustawa o sztucznej inteligencji stawia człowieka w centrum uwagi, a jej nadrzędną zasadą jest to, że sztuczna inteligencja służy ludziom, a nie ich zastępuje. To ludzie nadzorują sztuczną inteligencję w podejmowaniu ważnych decyzji. Sztuczna inteligencja musi być przejrzysta, odpowiedzialna i bezpieczna ” – podkreślił pan Nguyen Manh Hung.

Dowódca sektora nauki i technologii stwierdził, że projekt ustawy o zarządzaniu systemami sztucznej inteligencji według poziomów ryzyka wspiera krajowy rozwój sztucznej inteligencji i autonomii w zakresie sztucznej inteligencji, uznaje sztuczną inteligencję za siłę napędową szybkiego i zrównoważonego wzrostu oraz zapewnia narodową suwerenność cyfrową.

Rząd reguluje cztery poziomy ryzyka w rozwoju sztucznej inteligencji, w tym: niedopuszczalny (najwyższy poziom); wysokie ryzyko; średnie ryzyko i niskie ryzyko.

W przypadku systemów o średnim i wysokim ryzyku dostawca musi powiadomić Ministerstwo Nauki i Technologii. Systemy o niedopuszczalnym ryzyku nie mogą być rozwijane, dostarczane, wdrażane ani użytkowane w jakiejkolwiek formie.

Rząd zaproponował również listę zakazanych działań, która obejmuje systemy wykorzystywane do czynów zabronionych przez prawo, wykorzystujące fałszywe elementy w celu oszukiwania, manipulowania i wyrządzania poważnych szkód, wykorzystujące słabości grup narażonych na ryzyko (dzieci, osób starszych itp.) lub tworzące fałszywe treści, które poważnie szkodzą bezpieczeństwu narodowemu.

Zgodnie z planem przedstawionym przez rząd, organizacje i osoby naruszające ten obszar będą podlegać postępowaniu dyscyplinarnemu, sankcjom administracyjnym lub postępowaniu karnemu. W przypadku wyrządzenia szkody, odszkodowanie będzie wypłacane na zasadach prawa cywilnego.

W przypadku wielu uczestników (rozwój, dostawa, wdrożenie), muszą oni wspólnie dokonać rekompensaty. Odpowiedzialność za rekompensatę ustalana jest na podstawie faktycznego poziomu kontroli, przewidywalności i środków zarządzania ryzykiem zastosowanych przez każdą ze stron.

Projekt ustawy przewiduje maksymalną karę administracyjną w wysokości 2 mld VND dla organizacji i 1 mld VND dla osób fizycznych.

W przypadku poważnych naruszeń maksymalna grzywna może wynieść do 2% obrotów organizacji z poprzedniego roku. W przypadku powtarzających się naruszeń maksymalna grzywna wynosi do 2% globalnych obrotów organizacji z poprzedniego roku.

Oprócz działań mających na celu zwalczanie naruszeń, rząd zaproponował również wiele polityk wspierających badania, inwestycje i szkolenia wysoko wykwalifikowanych kadr, tworząc w ten sposób warunki dla przedsiębiorstw, organizacji i osób fizycznych, umożliwiające im udział w rozwoju i stosowaniu sztucznej inteligencji.

Przewodniczący Komisji Nauki, Technologii i Środowiska Nguyen Thanh Hai przedstawił raport z przeglądu.

Przewodniczący Komisji Nauki, Technologii i Środowiska Nguyen Thanh Hai przedstawił raport z przeglądu.

Przedstawiając raport z przeglądu, przewodniczący Komisji ds. Nauki, Technologii i Środowiska Nguyen Thanh Hai stwierdził, że Komisja zasadniczo zgadza się z podziałem ryzyka na 4 poziomy (niskie, średnie, wysokie i niedopuszczalne ryzyko).

Jednakże projekt ustawy nie określa jasno ilościowych ani jakościowych kryteriów identyfikacji i klasyfikacji ryzyka, a także nie zawiera przepisów dotyczących środków zarządzania, narzędzi i metod oceny ryzyka. W związku z tym klasyfikacja ryzyka i samoklasyfikacja są trudne, co budzi obawy dotyczące odpowiedzialności prawnej za wdrażanie ” – powiedziała pani Nguyen Thanh Hai.

Jeśli chodzi o przepisy dotyczące kontroli wstępnej, agencja audytowa zaproponowała przegląd i ograniczenie przepisów dotyczących kontroli wstępnej, takich jak wymagania dotyczące dokumentacji technicznej i dzienników operacyjnych przed wprowadzeniem produktów do obrotu. Spowoduje to wzrost kosztów przestrzegania przepisów, spowolni proces innowacji i stosowania sztucznej inteligencji, obniży konkurencyjność i atrakcyjność inwestycyjną, a także konieczność zbadania możliwości zdecydowanego przejścia na mechanizm pokontrolny.

W odniesieniu do krajowej bazy danych systemów sztucznej inteligencji i baz danych obsługujących sztuczną inteligencję, Komisja ds. Nauki, Technologii i Środowiska zaproponowała dodanie podstawowych zasad mających na celu zagwarantowanie jakości danych obsługujących sztuczną inteligencję, takich jak: dane muszą być „poprawne – wystarczające – czyste – aktywne” i udostępniane w sposób ujednolicony.

Ponadto, zdaniem agencji kontrolnej, potrzebny jest mechanizm łączenia i udostępniania danych, aby zapobiec ich rozprzestrzenianiu się, co mogłoby powodować wąskie gardła w badaniach i rozwoju w dziedzinie sztucznej inteligencji. Konieczne są również obowiązkowe zasady zapewnienia bezpieczeństwa sieci, bezpieczeństwa danych i obrony krajowej infrastruktury sztucznej inteligencji, zapobiegające ryzyku przejęcia kontroli nad danymi i ich wycieku.

Jeśli chodzi o odpowiedzialność prawną stron zaangażowanych w zdarzenie, działania i błędy popełnione przez ludzi mogą być również wykonywane przez sztuczną inteligencję. Tymczasem istnieje wiele rozbieżnych poglądów na temat odpowiedzialności prawnej samej sztucznej inteligencji, dlatego trudno jest ustalić odpowiedzialność w tradycyjnym ujęciu. W przypadku wystąpienia incydentu, może to prowadzić do sporów dotyczących odpowiedzialności administracyjnej, cywilnej i karnej.

W związku z tym konieczne jest uzupełnienie zasad rozróżniania odpowiedzialności między podmiotami i stronami powiązanymi, w tym zagranicznymi dostawcami, przy świadczeniu transgranicznych usług z zakresu sztucznej inteligencji, a także rozróżniania między umyślnymi i nieumyślnymi przypadkami lub błędami wynikającymi z ograniczeń technicznych i nieprzewidzianych sytuacji” – powiedział przewodniczący Komisji Nauki, Technologii i Środowiska.

W odniesieniu do czynów zabronionych organ kontrolny zaproponował uzupełnienie przepisów dotyczących czynów zabronionych, aby umożliwić wczesną identyfikację naruszeń, począwszy od etapu badań, aż po wdrożenie sztucznej inteligencji.

Musi to obejmować zachowanie użytkowników, organizacji i osób, które wykorzystują sztuczną inteligencję do wykonywania zabronionych działań w następujących celach: zakaz używania sztucznej inteligencji do wywoływania zamieszek, podżegania politycznego, naruszania bezpieczeństwa narodowego, manipulowania głosami i wyborami; zakaz używania sztucznej inteligencji do tworzenia fałszywych treści, tworzenia obrazów, klipów wideo służących oszustwom, znieważaniu honoru, godności, wywoływaniu podziałów i innych złych celów.

angielski


Źródło: https://vtcnews.vn/vi-pham-hanh-chinh-trong-linh-vuc-tri-tue-nhan-tao-co-the-bi-phat-den-2-ty-dong-ar988249.html


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Czwarty raz widzę górę Ba Den wyraźnie i rzadko z Ho Chi Minh City
Rozkoszuj się pięknymi widokami Wietnamu w łodzi MV Muc Ha Vo Nhan należącej do Soobina
Kawiarnie z wczesnymi dekoracjami świątecznymi zwiększają sprzedaż, przyciągając wielu młodych ludzi
Co jest szczególnego w wyspie położonej niedaleko granicy morskiej z Chinami?

Od tego samego autora

Dziedzictwo

Postać

Biznes

Podziwianie strojów narodowych 80 piękności biorących udział w konkursie Miss International 2025 w Japonii

Aktualne wydarzenia

System polityczny

Lokalny

Produkt