Po południu 10 grudnia Zgromadzenie Narodowe uchwaliło ustawę o sztucznej inteligencji. Za głosowało 429 z 434 delegatów (co stanowiło 90,7% całkowitej liczby delegatów Zgromadzenia Narodowego).
Ustawa o sztucznej inteligencji składa się z 8 rozdziałów i 35 artykułów, regulujących badania, rozwój, dostarczanie, wdrażanie i użytkowanie systemów sztucznej inteligencji; prawa i obowiązki odpowiednich organizacji i osób fizycznych; oraz zarządzanie przez państwo działaniami związanymi ze sztuczną inteligencją w Wietnamie. Działania związane ze sztuczną inteligencją, służące wyłącznie celom obrony narodowej, bezpieczeństwa i kryptografii, nie są objęte tą ustawą.

4 podstawowe zasady działania sztucznej inteligencji
Zgodnie z ustawą niedawno uchwaloną przez Zgromadzenie Narodowe, działania związane ze sztuczną inteligencją muszą być zgodne z czterema podstawowymi zasadami, w tym:
Stawianie człowieka w centrum uwagi, zapewnianie praw człowieka, prawa do prywatności, interesów narodowych, interesów publicznych i bezpieczeństwa narodowego; przestrzeganie Konstytucji i prawa.
Sztuczna inteligencja służy ludzkości, a nie zastępuje ludzkiej władzy i odpowiedzialności. Zapewnia utrzymanie kontroli i możliwości ingerencji człowieka we wszystkie decyzje i zachowania systemu sztucznej inteligencji; bezpieczeństwo systemu, bezpieczeństwo danych i poufność informacji; a także możliwość inspekcji i monitorowania rozwoju i działania systemu.
Zapewnianie uczciwości, przejrzystości, bezstronności, niedyskryminacji i nieszkodzenia jednostkom ani społeczeństwu; przestrzeganie wietnamskich norm etycznych i wartości kulturowych; odpowiedzialność za decyzje i konsekwencje systemu.
Promowanie rozwoju zielonej, inkluzywnej i zrównoważonej sztucznej inteligencji; zachęcanie do opracowywania i stosowania technologii sztucznej inteligencji, które są energooszczędne, oszczędzają zasoby i ograniczają negatywny wpływ na środowisko.
Klasyfikacja i zarządzanie systemami AI na podstawie ryzyka.
Ustawa o sztucznej inteligencji określa klasyfikację i zarządzanie systemami sztucznej inteligencji według trzech poziomów ryzyka: wysokiego, średniego i niskiego.
Systemy sztucznej inteligencji wysokiego ryzyka to takie, które mogą wyrządzić znaczną szkodę życiu, zdrowiu, uzasadnionym prawom i interesom organizacji i jednostek, interesom narodowym, interesom publicznym i bezpieczeństwu narodowemu;
System sztucznej inteligencji o średnim ryzyku to taki, który ma potencjał dezorientowania, wpływania na użytkowników lub manipulowania nimi, ponieważ nie są oni w stanie rozpoznać, że jednostka wchodząca w interakcję jest systemem sztucznej inteligencji lub że generuje on treść;
Pozostałe systemy sztucznej inteligencji charakteryzują się niskim ryzykiem.
Klasyfikacja ryzyka systemów sztucznej inteligencji jest ustalana na podstawie takich kryteriów, jak poziom wpływu na prawa człowieka, bezpieczeństwo i ochronę; obszar wykorzystania systemu, zwłaszcza obszary istotne lub bezpośrednio związane z interesem publicznym; zakres użytkowników; oraz skala wpływu systemu.

Zabronione zachowania w operacjach sztucznej inteligencji
Ustawa o sztucznej inteligencji określa również zabronione działania w zakresie sztucznej inteligencji, w szczególności:
Wykorzystywanie lub przejmowanie kontroli nad systemami sztucznej inteligencji w celu popełniania czynów niezgodnych z prawem i naruszania uzasadnionych praw i interesów organizacji i osób fizycznych.
Opracowywanie, dostarczanie, wdrażanie lub używanie systemów sztucznej inteligencji w celu: popełniania czynów zabronionych przez prawo; wykorzystywania sfałszowanych lub symulowanych prawdziwych osób lub zdarzeń w celu oszukiwania lub manipulowania ludzką percepcją i zachowaniem w sposób celowy i systematyczny, powodując poważne szkody dla praw człowieka i uzasadnionych interesów; wykorzystywania słabości grup wrażliwych, w tym dzieci, osób starszych, osób niepełnosprawnych, mniejszości etnicznych lub osób o ograniczonej lub upośledzonej zdolności do czynności cywilnoprawnych, osób z trudnościami poznawczymi lub problemami z kontrolą zachowania, w celu wyrządzenia krzywdy sobie lub innym; tworzenia lub rozpowszechniania sfałszowanych treści mogących poważnie zagrozić bezpieczeństwu narodowemu, porządkowi publicznemu i bezpieczeństwu socjalnemu.
Gromadzenie, przetwarzanie lub wykorzystywanie danych w celu opracowywania, szkolenia, testowania lub obsługi systemów sztucznej inteligencji z naruszeniem przepisów dotyczących danych, ochrony danych osobowych, własności intelektualnej i cyberbezpieczeństwa.
Utrudnianie, wyłączanie lub zakłócanie ludzkich mechanizmów monitorowania, interwencji i kontroli systemów sztucznej inteligencji, zgodnie z postanowieniami niniejszej Ustawy.
Ukrywanie informacji, które muszą zostać ujawnione, upublicznione lub wyjaśnione; usuwanie lub fałszowanie obowiązkowych informacji, etykiet lub ostrzeżeń w operacjach sztucznej inteligencji.
Wykorzystywanie badań, testów, ocen lub działań weryfikacyjnych związanych z systemami sztucznej inteligencji do podejmowania działań naruszających prawo.
Source: https://nhandan.vn/cam-su-dung-he-thong-ai-tao-noi-dung-gia-mao-gay-nguy-hai-an-ninh-quoc-gia-post929261.html










Komentarz (0)