Vietnam.vn - Nền tảng quảng bá Việt Nam

Uzupełnianie ram prawnych dla sztucznej inteligencji

Sztuczna inteligencja (AI) staje się najnowocześniejszą technologią rewolucji przemysłowej 4.0, otwierając wiele wspaniałych możliwości rozwoju społeczno-gospodarczego. Co więcej, stawia również wiele wyzwań, gdy obecne regulacje prawne nie wystarczają do uregulowania tej dziedziny.

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân17/10/2025

W odniesieniu do sztucznej inteligencji (AI), Zgromadzenie Narodowe uchwaliło ustawę o przemyśle technologii cyfrowych , która zawiera rozdział regulujący AI. Stanowi ona wstępną, zasadniczą podstawę prawną dla rozwoju i stosowania AI. Jednak przepisy te nie stworzyły jeszcze kompleksowych i wystarczająco otwartych ram prawnych, które ułatwiłyby badania, rozwój, wdrażanie i użytkowanie AI oraz całego ekosystemu AI.

Ponadto brakuje nam mechanizmów klasyfikacji i kontroli ryzyka związanego z systemami AI; mechanizmów testowania, licencjonowania i monitorowania systemów AI, zwłaszcza systemów AI wysokiego ryzyka; oraz mechanizmów i strategii rozwoju i pozyskiwania wysokiej jakości kadr AI. Chociaż Rezolucja nr 57-NQ/TW wyraźnie stwierdza potrzebę „uczynienia danych podstawowym środkiem produkcji” oraz „rozwoju gospodarki danych i rynku danych”, gromadzenie, przetwarzanie, udostępnianie i wykorzystywanie danych do szkolenia modeli AI napotyka obecnie wiele trudności. Połączenie i udostępnianie danych między krajowymi i sektorowymi bazami danych jest powolne i nie spełnia wymogów rozwoju systemów AI na dużą skalę.

Co istotne, brakuje nam odpowiedzialności prawnej, gdy sztuczna inteligencja wyrządza szkody. Ta luka prawna stanowi jedno z największych wyzwań w radzeniu sobie z konsekwencjami szkód wyrządzonych przez sztuczną inteligencję. Pytanie brzmi: gdy system sztucznej inteligencji wyrządzi szkody, na przykład gdy samochody autonomiczne spowodują wypadki lub oprogramowanie do diagnostyki medycznej będzie generować nieprawidłowe wyniki, kto poniesie odpowiedzialność? Twórca, producent, użytkownik czy sam system sztucznej inteligencji? Brak szczegółowych przepisów dotyczących odpowiedzialności stanowi poważne ryzyko dla konsumentów i firm korzystających z sztucznej inteligencji.

Co więcej, szybki rozwój sztucznej inteligencji budzi obawy dotyczące nietypowych zagrożeń bezpieczeństwa. Technologia deepfake jest wykorzystywana do tworzenia dezinformacji, zniesławiania organizacji i osób prywatnych oraz do tworzenia różnych form oszustw. Jeśli sytuacja ta nie zostanie opanowana przez wystarczająco surowe przepisy prawne i surowe kary, doprowadzi to do niestabilności społecznej.

Aby zrealizować pogląd Partii i Państwa, że ​​sztuczna inteligencja stanowi przełomowy krok w kierunku wzmocnienia potencjału kraju w erze cyfrowej, projekt ustawy o sztucznej inteligencji, opracowywany obecnie przez rząd, opiera się na następującej nadrzędnej zasadzie: ustawa stawia ludzkość w centrum, a jej nadrzędną zasadą jest to, że sztuczna inteligencja służy ludzkości, a nie ją zastępuje, oraz że ludzie nadzorują sztuczną inteligencję w kluczowych decyzjach; sztuczna inteligencja musi być przejrzysta, odpowiedzialna i bezpieczna. Ustawa o sztucznej inteligencji zarządza systemami sztucznej inteligencji w oparciu o poziom ryzyka, wspiera rozwój krajowej sztucznej inteligencji i samowystarczalność w zakresie sztucznej inteligencji oraz wykorzystuje sztuczną inteligencję jako siłę napędową szybkiego i zrównoważonego wzrostu.

Aby zapewnić lepszą efektywność zarządzania i ochronę praw użytkowników, projekt ustawy określa obowiązki w zakresie zarządzania incydentami związanymi ze sztuczną inteligencją i obsługi takich incydentów. W związku z tym organizacje i osoby zaangażowane w tworzenie, dostarczanie, wdrażanie i użytkowanie systemów sztucznej inteligencji (AI) są odpowiedzialne za zapewnienie bezpieczeństwa, ochrony i niezawodności podczas działania systemu; proaktywne wykrywanie, zapobieganie i szybkie rozwiązywanie incydentów, które mogłyby zaszkodzić ludziom, mieniu, danym lub porządkowi społecznemu.

W przypadku wystąpienia awarii technicznych, odchyleń od normy w wynikach lub nieoczekiwanego zachowania systemów AI, deweloperzy i dostawcy muszą niezwłocznie wdrożyć środki techniczne w celu usunięcia problemu, czasowego zawieszenia lub wycofania potencjalnie szkodliwego systemu; a także powiadomić o tym właściwe organy państwowe i koordynować działania z nimi w celu przeprowadzenia dochodzenia i podjęcia odpowiednich działań. Wdrożeniowcy i użytkownicy są zobowiązani do niezwłocznego rejestrowania i zgłaszania incydentów dostawcy oraz współpracy z odpowiednimi podmiotami w procesie usuwania usterek. Nie wolno im samodzielnie ingerować w system ani go modyfikować bez zezwolenia. Ponadto, projekt ustawy określa również obowiązki dostawców i wdrożeniowców w odniesieniu do systemów AI wysokiego ryzyka…

Szybkie uchwalenie w Wietnamie ustawy o sztucznej inteligencji zapoczątkuje przełom w dziedzinie sztucznej inteligencji, przyczyniając się do stworzenia sprzyjającego środowiska prawnego, promującego innowacyjność, zwiększającego konkurencyjność kraju i umacniającego pozycję kraju jako państwa o niezależności technologicznej.

Źródło: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Miejsce rozrywki bożonarodzeniowej wzbudza poruszenie wśród młodych ludzi w Ho Chi Minh City dzięki 7-metrowej sośnie
Co takiego dzieje się w 100-metrowej alejce, że wzbudza poruszenie w okresie Bożego Narodzenia?
Zachwycony wspaniałym weselem, które odbyło się przez 7 dni i nocy w Phu Quoc
Parada starożytnych kostiumów: Sto kwiatów radości

Od tego samego autora

Dziedzictwo

Postać

Biznes

Don Den – nowy „balkon nieba” Thai Nguyena przyciąga młodych łowców chmur

Aktualne wydarzenia

System polityczny

Lokalny

Produkt