W odniesieniu do sztucznej inteligencji (AI), Zgromadzenie Narodowe uchwaliło ustawę o przemyśle technologii cyfrowych , która zawiera rozdział regulujący AI. Stanowi ona wstępną podstawę prawną dla rozwoju i stosowania AI. Jednak przepisy te nie stworzyły jeszcze kompleksowego korytarza prawnego, wystarczająco otwartego, aby ułatwić badania, rozwój, wdrażanie i użytkowanie AI oraz stworzyć kompleksowy ekosystem AI.
Ponadto brakuje nam mechanizmu klasyfikacji i kontroli ryzyka związanego z systemami AI; mechanizmu inspekcji, licencjonowania i monitorowania systemów AI, zwłaszcza systemów AI wysokiego ryzyka; oraz mechanizmów i polityk rozwoju i pozyskiwania wysokiej jakości kadr AI. Chociaż Rezolucja nr 57-NQ/TW wyraźnie stwierdza, że konieczne jest „uczynienie danych głównym środkiem produkcji” oraz „rozwój gospodarki danych i rynku danych”, gromadzenie, przetwarzanie, udostępnianie i wykorzystywanie danych do szkolenia modeli AI napotyka obecnie wiele trudności. Połączenie i udostępnianie danych między krajowymi a branżowymi bazami danych jest nadal powolne i nie spełnia wymogów rozwoju systemów AI na dużą skalę.
Warto wspomnieć, że brakuje nam luki prawnej w zakresie odpowiedzialności, gdy sztuczna inteligencja powoduje szkody. Ta luka prawna stanowi jedno z największych wyzwań w radzeniu sobie z konsekwencjami powodowanymi przez sztuczną inteligencję. Pytanie brzmi: gdy system sztucznej inteligencji spowoduje szkody, takie jak: wypadek spowodowany przez autonomiczny samochód, błędne wyniki diagnostyki medycznej … to kto będzie ponosił odpowiedzialność? Czy będzie to twórca, producent, użytkownik, czy sam system sztucznej inteligencji? Brak konkretnych przepisów dotyczących odpowiedzialności będzie stanowił ogromne ryzyko dla konsumentów i firm korzystających ze sztucznej inteligencji.
Co więcej, wraz z „wyższym” rozwojem sztucznej inteligencji (AI), pojawiają się również obawy dotyczące nietypowych zagrożeń bezpieczeństwa. Technologia deepfake jest wykorzystywana do tworzenia fałszywych informacji, zniesławiania organizacji i osób oraz tworzenia form oszustw. Jeśli sytuacja ta nie zostanie opanowana przez wystarczająco rygorystyczne ramy prawne i sankcje, doprowadzi to do niestabilności społecznej.
Aby zrealizować stanowisko Partii i Państwa, które postrzegają sztuczną inteligencję jako pionierską i przełomową technologię, mającą na celu poprawę potencjału kraju w erze cyfrowej, rząd opracowuje projekt ustawy o sztucznej inteligencji, który opiera się na spójnym założeniu: ustawa stawia człowieka w centrum uwagi, kierując się nadrzędną zasadą, że sztuczna inteligencja ma służyć ludziom, a nie ich zastępować, a ludzie nadzorują sztuczną inteligencję w podejmowaniu ważnych decyzji; musi być przejrzysta, odpowiedzialna i bezpieczna. Ustawa o sztucznej inteligencji zarządza systemami sztucznej inteligencji w zależności od poziomu ryzyka, wspiera rozwój krajowej sztucznej inteligencji i jej autonomię, a także uznaje sztuczną inteligencję za siłę napędową szybkiego i zrównoważonego wzrostu.
Aby zapewnić lepszą efektywność zarządzania i ochronę praw użytkowników, projekt ustawy przewiduje odpowiedzialność za zarządzanie incydentami związanymi ze sztuczną inteligencją i ich obsługę. W związku z tym organizacje i osoby uczestniczące w rozwoju, dostarczaniu, wdrażaniu i użytkowaniu systemów sztucznej inteligencji (AI) są odpowiedzialne za zapewnienie bezpieczeństwa, ochrony i niezawodności podczas działania systemu; proaktywne wykrywanie, zapobieganie i szybkie rozwiązywanie incydentów, które mogą zagrażać ludziom, mieniu, danym lub porządkowi społecznemu.
W przypadku wystąpienia incydentu technicznego, nieprawidłowych wyników lub nieoczekiwanego zachowania systemu AI, deweloper i dostawca muszą niezwłocznie podjąć środki techniczne w celu naprawy, zawieszenia lub wycofania potencjalnie szkodliwego systemu; powiadomić o tym fakcie i skoordynować działania z właściwym organem państwowym w celu zbadania i rozwiązania problemu. Wdrożeniowiec i użytkownik są zobowiązani do zarejestrowania i niezwłocznego powiadomienia dostawcy o incydencie oraz do współpracy z odpowiednimi podmiotami w procesie jego naprawy, a także do niedopuszczalnej arbitralnej interwencji lub modyfikacji systemu bez zezwolenia. Ponadto projekt ustawy określa również obowiązki dostawcy i wdrożeniowca w przypadku systemów AI wysokiego ryzyka…
Wczesne ogłoszenie przez Wietnam ustawy o sztucznej inteligencji spowoduje przełom w dziedzinie sztucznej inteligencji, stworzy sprzyjające środowisko prawne promujące innowacyjność, zwiększy konkurencyjność kraju i potwierdzi pozycję kraju zdolnego do autonomii technologicznej.
Źródło: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html
Komentarz (0)