Konieczne jest uregulowanie zakazanych zachowań w badaniach nad sztuczną inteligencją i jej zastosowaniach.
Sztuczna inteligencja (AI) staje się najnowocześniejszą technologią rewolucji przemysłowej 4.0, otwierając wiele wspaniałych możliwości rozwoju społeczno -gospodarczego. Stawia jednak również wiele pilnych wyzwań w zakresie zarządzania, etyki i bezpieczeństwa, których obecne regulacje prawne nie w pełni uwzględniają.
Dlatego też wszyscy deputowani Zgromadzenia Narodowego zgodzili się co do konieczności opracowania projektu ustawy o sztucznej inteligencji, która stworzy przełomowy korytarz prawny dla sztucznej inteligencji, stworzy sprzyjające środowisko prawne promujące innowacyjność, zwiększy konkurencyjność kraju, a jednocześnie pozwoli zarządzać ryzykiem, chronić interesy narodowe i prawa człowieka.

Zaniepokojony wykorzystaniem sztucznej inteligencji w agencjach państwowych, poseł Zgromadzenia Narodowego Tran Dinh Chung (Da Nang) powiedział, że pomoże to agencjom, urzędnikom i pracownikom służby cywilnej zaoszczędzić dużo czasu, szybciej i bardziej synchronicznie przetwarzać pracę, co przełoży się na poprawę jakości pracy.
Oprócz korzyści finansowych i czasowych wynikających ze stosowania sztucznej inteligencji w agencjach państwowych, delegaci zauważyli również, że obecnie istnieje wiele kwestii, które wymagają dalszych badań i doprecyzowania w projekcie ustawy.
Pierwszym z nich jest bezpieczeństwo korzystania ze sztucznej inteligencji (AI), ponieważ urzędnicy i służby cywilne muszą obecnie dostarczać dane wejściowe zarówno do szkoleń AI, jak i w trakcie eksploatacji. W związku z tym, jeśli nie będzie to ściśle kontrolowane, istnieje ryzyko, że dane wewnętrzne, wrażliwe lub poufne informacje państwowe zostaną wprowadzone do oprogramowania AI lub wykorzystane do celów innych niż szkolenie AI. Dane są również przedmiotem obaw, gdy nie ma szczegółowych przepisów dotyczących sposobu ich przechowywania, miejsca przechowywania i praw dostępu.
Po drugie, koncentracja dużej ilości danych pochodzących z agencji rządowych w oprogramowaniu AI stwarza również ryzyko ataków hakerskich i kradzieży danych. Ryzyko to rośnie w szczególności dlatego, że agencje rządowe nie są w stanie same tworzyć i obsługiwać oprogramowania AI, lecz często polegają na współpracy z firmami zewnętrznymi. Jednocześnie rozwija się również oprogramowanie szpiegujące z zagranicy, więc korzystanie z AI wiąże się z ryzykiem kradzieży danych i dominacji.
Po trzecie, kolejnym ryzykiem jest dokładność. Oprogramowanie AI może również generować niedokładne wyniki, ponieważ uczy się na podstawie dostępnych danych, może też dziedziczyć błędy lub nieprawidłowe rozwiązania, które urzędnicy państwowi wprowadzili w przeszłości. „Niedokładne lub niekompletne dane również znacząco wpływają na jakość AI” – podkreślił delegat.
Urzędnicy, urzędnicy państwowi i obywatele nie mają umiejętności zadawania pytań sztucznej inteligencji, co prowadzi do ograniczonych odpowiedzi. Tymczasem sztuczna inteligencja potrzebuje czasu na aktualizację nowych dokumentów prawnych i nowych instrukcji od agencji państwowych.

Po czwarte, jakość sztucznej inteligencji (AI) obecnie nie spełnia wymagań. Niektóre modele AI są bardzo złożone, co utrudnia kontrolowanie procesu analizy, przetwarzanie danych i wyjaśnianie, dlaczego AI podejmuje daną decyzję. Ponadto problem błędów w algorytmach lub systemach AI również prowadzi do błędów.
Oprócz wymagań dotyczących infrastruktury technicznej i zasobów ludzkich niezbędnych do wdrożenia sztucznej inteligencji w agencjach państwowych, delegat Tran Dinh Chung zauważył również, że należy zwrócić uwagę na ryzyko nadużywania technologii sztucznej inteligencji, co obniży kwalifikacje urzędników. Urzędnicy będą prowadzić mniej badań, ponieważ uważają, że wystarczy wprowadzić je do oprogramowania, aby sztuczna inteligencja mogła pomóc w odpowiedzi na nurtujące pytania.
„Wykorzystanie technologii sztucznej inteligencji (AI) w agencjach państwowych to nieunikniony trend. Jednak sposób jej wykorzystania, aby zapewnić efektywność pracy, a jednocześnie bezpieczeństwo informacji, jest wciąż podnoszonym problemem”. W związku z tym delegat Tran Dinh Chung zgodził się na opracowanie projektu ustawy o sztucznej inteligencji, ale zasugerował również kontynuację przeglądu w celu zapewnienia spójności i spójności z przepisami pokrewnymi.
Delegaci zaproponowali również zbadanie i dodanie przepisu regulującego zakazane zachowania i działania w zakresie badań nad sztuczną inteligencją, jej stosowania i wdrażania, zamiast umieszczania ich rozproszonych w wielu przepisach w projekcie ustawy, jak to ma miejsce obecnie, co utrudnia monitorowanie.
Zdaniem delegata, jasne zdefiniowanie odpowiedzialności prawnej za sztuczną inteligencję jest niezwykle ważne, aby uniknąć przyszłych sporów prawnych, a także rozpatrywać przypadki naruszeń. Z drugiej strony, sztuczna inteligencja jest powiązana z maszynami i technologią, więc oprócz błędów popełnionych przez człowieka, które można przypisać, można również winić maszyny, technologię lub inne czynniki. Dlatego konieczne jest przeprowadzenie badań w celu ich precyzyjnego zdefiniowania, aby uniknąć rozmycia odpowiedzialności prawnej, zwłaszcza w kontekście stosowania i użytkowania sztucznej inteligencji w agencjach państwowych.
Konieczne jest jasne określenie agencji odpowiedzialnej za zarządzanie ryzykiem w tych obszarach.
Zaniepokojony zarządzaniem systemami AI wysokiego ryzyka, o których mowa w rozdziale II sekcji II projektu ustawy, poseł Zgromadzenia Narodowego Vuong Thi Huong (Tuyen Quang) stwierdził, że sektor opieki zdrowotnej należy uznać za jeden z sektorów wysokiego ryzyka w kontekście stosowania sztucznej inteligencji, ze względu na jej bezpośredni wpływ na życie i zdrowie ludzi, wrażliwe dane osobowe i zaufanie społeczne. Systemy AI wspomagające diagnostykę obrazową, leczenie chorób, zabiegi chirurgiczne, analizę genów itp., jeśli nie będą kontrolowane, nie będą miały standardów bezpieczeństwa lub nie będą transparentne w danych szkoleniowych, mogą spowodować poważne, a nawet nieodwracalne konsekwencje.

Projekt ustawy określa klasyfikację i zarządzanie ryzykiem, ale nie precyzuje, która agencja odpowiada za zarządzanie w poszczególnych obszarach. Delegaci stwierdzili natomiast, że w sektorze zdrowia, jeśli ogólna koordynacja zostanie powierzona agencji zarządzania technologiami informatycznymi bez jasnego określenia roli sektora zdrowia, może to prowadzić do nakładania się ocen, braku jednolitości standardów zawodowych oraz trudności w zarządzaniu produktami wykorzystującymi sztuczną inteligencję, wykorzystywanymi jako wyroby medyczne lub w badaniach i leczeniu.
W związku z tym proponuje się uzupełnienie rozporządzenia powierzające Ministerstwu Zdrowia zadanie przewodniczenia zarządzaniu systemami sztucznej inteligencji wysokiego ryzyka w sektorze medycznym, koordynacji z Ministerstwem Informacji i Komunikacji oraz właściwymi ministerstwami i oddziałami w celu: ogłaszania norm technicznych, oceny klinicznej i kontroli bezpieczeństwa; regulacji dotyczących bezpieczeństwa danych dokumentacji medycznej i łączenia systemów informacji medycznej; oraz monitorowania zagrożeń podczas użytkowania.
„Jasne określenie punktu centralnego stworzy solidne podstawy prawne, zagwarantuje bezpieczeństwo pacjentów, a jednocześnie stworzy warunki, w których firmy technologiczne i placówki medyczne będą mogły wdrażać aplikacje AI w sposób przejrzysty i kontrolowany” – podkreślił delegat Vuong Thi Huong.
Zgadzając się z zapisami dotyczącymi Narodowego Funduszu Rozwoju Sztucznej Inteligencji zawartymi w artykule 23 projektu ustawy, poseł Zgromadzenia Narodowego Be Minh Duc (Cao Bang) stwierdził, że fundusz ten został utworzony w celu promowania i wspierania potencjału badawczego oraz zastosowań sztucznej inteligencji w kraju. Obecnie jednak istnieją Narodowy Fundusz Rozwoju Nauki i Technologii oraz Narodowy Fundusz Innowacji Technologicznych, których celem jest również wspieranie badań i innowacji technologicznych, w tym sztucznej inteligencji.

Chociaż zakres i cele każdego rodzaju funduszy są różne, wszystkie koncentrują się na dziedzinach nauki i techniki. Dlatego zaleca się przegląd i określenie relacji między rodzajami funduszy, aby zwiększyć efektywność każdego z nich, uniknąć dublowania funkcji, rozproszenia środków i zwiększenia obciążenia budżetowego.
Mimo że podlegają one temu samemu ministerstwu, delegaci zasugerowali, że należy rozważyć połączenie tych trzech rodzajów funduszy i skoncentrować zasoby na wdrażaniu polityk wsparcia sprzyjających rozwojowi nauki i techniki.
Delegat Be Minh Duc zasugerował również, aby odpowiednie przepisy specjalistyczne zawierały szczegółowe regulacje dotyczące sztucznej inteligencji w każdej dziedzinie. Jest to zasada, która wymaga uregulowania, ponieważ nasz kraj wkracza w erę cyfrową. Sztuczna inteligencja jest szeroko badana i stosowana we wszystkich branżach, w dziedzinach społeczno-gospodarczych, obronnych i bezpieczeństwa. Dodanie powyższej zasady pomoże zapewnić kompleksowe uregulowanie konkretnych kwestii i spełnić wymogi zarządzania w kontekście szybkiego rozwoju technologii, jaki obserwujemy obecnie.
Source: https://daibieunhandan.vn/gop-3-quy-ve-khoa-hoc-cong-nghe-giup-tap-trung-nguon-luc-10396526.html






Komentarz (0)