Sztuczna inteligencja (AI) została uznana za kluczową technologię w Narodowej Strategii Badań, Rozwoju i Zastosowań AI do 2030 roku, wydanej przez Prezesa Rady Ministrów 26 stycznia 2021 roku. Głównym celem Strategii jest uczynienie z naszego kraju centrum innowacji w dziedzinie AI w regionie i na świecie , w czwórce najlepszych państw ASEAN w dziedzinie badań i zastosowań AI oraz w grupie 50 wiodących krajów na świecie w dziedzinie AI. Strategia wskazuje również na potrzebę zbudowania systemu norm prawnych i korytarzy prawnych związanych ze sztuczną inteligencją.
Dr Pham Thi Thuy Nga z Instytutu Państwa i Prawa (Wietnamska Akademia Nauk Społecznych) stwierdziła, że prawo odgrywa ważną rolę w kierowaniu i ochronie środowiska akademickiego, a także że konieczne jest wyraźne uznanie obowiązku ujawniania wykorzystania sztucznej inteligencji, zarówno pod względem technicznym (algorytmy, dane szkoleniowe), jak i etycznym (wpływ społeczny, potencjalne stronniczość), aby chronić legalność i przejrzystość tworzonej wiedzy. Ponieważ sztuczna inteligencja nie jest podmiotem posiadającym zdolność prawną, nie ma woli, moralności ani zdolności do ponoszenia odpowiedzialności prawnej, wszelkie negatywne konsekwencje wynikające z jej wykorzystania muszą zostać przypisane konkretnym osobom lub organizacjom.
Jasno określone ramy polityki będą podstawą do określenia granic i odpowiedzialności stron zaangażowanych w przetwarzanie danych, promowania bezpiecznych innowacji w przedsiębiorstwach i organizacjach badawczych, a także przyczynią się do powiązania wietnamskich działań w zakresie rozwoju sztucznej inteligencji z międzynarodowymi standardami i otwarcia możliwości globalnej integracji i współpracy technologicznej. Tym samym ramy polityki będą nie tylko narzędziem, ale także fundamentem bezpiecznego i humanitarnego rozwoju sztucznej inteligencji.
Wiele krajów na świecie szybko opracowało ramy polityki rozwoju sztucznej inteligencji. Na przykład Stany Zjednoczone uchwaliły ustawę o odpowiedzialności za algorytmy (Algorithm Accountability Act) w 2022 roku, Kanada ustawę o sztucznej inteligencji i danych (Artificial Intelligence and Data Act) w 2023 roku, a Unia Europejska (UE) ustawę o sztucznej inteligencji (AI Act) w 2024 roku. W Azji Chiny są krajem, który szybko opracował kompleksowe, ukierunkowane i strategicznie zorientowane ramy polityki. Nie tylko wydały strategiczny plan „rozwoju sztucznej inteligencji nowej generacji”, ale również określiły go poprzez regulacje prawne w „Przepisach dotyczących zarządzania algorytmami rekomendacji w Internecie” oraz „Przepisach dotyczących treści syntetycznych generowanych przez sztuczną inteligencję”.
Chińskie Ministerstwo Nauki i Technologii wydało „Wytyczne dotyczące etyki w dziedzinie sztucznej inteligencji”, stawiając człowieka w centrum uwagi, zapewniając uczciwość, bezpieczeństwo i odpowiedzialność. Japonia również wkrótce wydała „Podstawowe wytyczne dotyczące etyki w dziedzinie sztucznej inteligencji” i powołała Radę Ekspertów ds. Sztucznej Inteligencji na mocy Ustawy o podstawach naukowych, technologicznych i innowacyjnych.
Na początku 2025 roku Japonia uchwaliła ustawę mającą na celu promowanie badań, rozwoju i zastosowań związanych ze sztuczną inteligencją. Jednym z istotnych zapisów tej ustawy jest obowiązek współpracy i wymiany informacji między podmiotami opracowującymi, dystrybuującymi i wdrażającymi sztuczną inteligencję. Ten prawnie wiążący mechanizm pomaga wzmocnić potencjał zarządczy, zwłaszcza w przypadku systemów sztucznej inteligencji o wysokim poziomie ryzyka.
Jak dotąd ramy polityki w zakresie sztucznej inteligencji (AI) w Wietnamie są wciąż w powijakach, jedynie na poziomie orientacji strategicznej i pośrednich dostosowań poprzez regulacje dotyczące bezpieczeństwa informacji, własności intelektualnej oraz ochrony danych osobowych, zawarte w dokumentach takich jak ustawa o cyberbezpieczeństwie z 2018 r., ustawa o zaawansowanych technologiach z 2008 r. oraz znowelizowana ustawa o własności intelektualnej z 2022 r. Przepisy dotyczące AI mają nadal charakter ogólny i nie obejmują wszystkich szczegółowych kwestii związanych z AI, takich jak: odpowiedzialność prawna systemów zautomatyzowanych, dostęp do danych szkoleniowych, kontrola algorytmów czy transparentność w procesie decyzyjnym AI.
Według dr Truong Thi Thu Trang z Instytutu Informacji Nauk Społecznych (Wietnamska Akademia Nauk Społecznych)
Według dr Truong Thi Thu Trang z Instytutu Informacji Nauk Społecznych (Wietnamska Akademia Nauk Społecznych) polityka ramowa w zakresie sztucznej inteligencji w Wietnamie jest jak dotąd w powijakach, zatrzymując się jedynie na poziomie orientacji strategicznej i pośrednich dostosowań poprzez regulacje dotyczące bezpieczeństwa informacji, własności intelektualnej, a także ochrony danych osobowych, zawarte w takich dokumentach jak ustawa o cyberbezpieczeństwie z 2018 r., ustawa o zaawansowanych technologiach z 2008 r. i znowelizowana ustawa o własności intelektualnej z 2022 r.
Przepisy dotyczące sztucznej inteligencji (AI) wciąż mają charakter ogólny i nie obejmują wszystkich szczegółowych kwestii związanych z AI, takich jak: odpowiedzialność prawna systemów zautomatyzowanych, dostęp do danych szkoleniowych, kontrola algorytmów czy transparentność w procesie podejmowania decyzji w AI. Dlatego, aby sprostać praktycznym wymogom, w kontekście szybkiego rozwoju i rosnącej złożoności AI, konieczne jest szybkie opracowanie ram prawnych, a także wytycznych etycznych, norm technicznych i bezpieczeństwa, dostosowanych do specyfiki danego kraju.
Dr To Van Truong, były dyrektor Południowego Instytutu Planowania Zasobów Wodnych, powiedział, że ramy polityki rozwoju sztucznej inteligencji muszą zostać zaprojektowane jako strategiczny system orientacyjny, promujący innowacje i kontrolujący ryzyko, zapewniający wspólne korzyści dla społeczeństwa, jasno identyfikujący sztuczną inteligencję jako strategiczną infrastrukturę technologiczną, powiązaną z celem rozwoju gospodarki cyfrowej i zwiększenia konkurencyjności kraju.
Aby skutecznie wdrożyć ramy polityki rozwoju sztucznej inteligencji (AI), konieczne jest powołanie agencji centralnej, takiej jak Narodowy Komitet ds. Sztucznej Inteligencji (National Committee on Artificial Intelligence). System ten musi dysponować przejrzystym mechanizmem monitorowania i kanałami konsultacji społecznych, umożliwiając obywatelom i organizacjom społecznym udział w procesie kształtowania polityki, co nie tylko chroni użytkowników, ale także buduje solidne zaufanie przedsiębiorstw i inwestorów do tworzenia produktów.
Ponadto ramy polityki w zakresie sztucznej inteligencji (AI) muszą stworzyć mechanizmy, które w istotny sposób będą wspierać innowacyjność i współpracę międzynarodową. Konieczne jest zdecydowane wdrożenie takich środków, jak zachęty podatkowe, fundusze na badania i rozwój, a zwłaszcza kontrolowane programy testowe (tzw. sandboxy) dla przedsiębiorstw z branży AI.
Sukces tych mechanizmów zależy bezpośrednio od wykwalifikowanych zasobów ludzkich i elastycznego korytarza prawnego. Ponadto regulacje w ramach polityki muszą zawsze uwzględniać etykę i odpowiedzialność społeczną jako fundamentalne zasady, które muszą być „zakodowane” od samego początku w systemie prawnym, a także w standardach technicznych.
Dobre ramy polityczne to nie tylko korytarz prawny, ale także siła napędowa, dzięki której sztuczna inteligencja stanie się narzędziem promowania zrównoważonego rozwoju. Na kilku ostatnich forach wielu ekspertów stwierdziło, że w obecnych warunkach panujących w Wietnamie ramy polityczne dotyczące sztucznej inteligencji muszą zapewniać delikatną równowagę między promowaniem technologii a ochroną podstawowych wartości ludzkich.
Integrując jasne mechanizmy zarządzania, strategie dotyczące otwartych danych, zaangażowanie społeczności i zasady etyczne jako fundament, stworzymy dynamiczny, godny zaufania ekosystem sztucznej inteligencji, który sprawi, że nie pozostaniemy w tyle w erze cyfrowej.
Źródło: https://nhandan.vn/hoan-thien-khung-chinh-sach-quan-ly-ai-post901557.html
Komentarz (0)