7 października Uniwersytet Ekonomii i Prawa (VNU-HCM) we współpracy z gazetą prawniczą Ho Chi Minh City zorganizował konferencję naukową na temat „Sztuczna inteligencja i prawo: doświadczenia międzynarodowe i sugestie dla Wietnamu”.
Potrzebna jest elastyczność zamiast „sztywnej ramy”
W trakcie warsztatów docent dr Ngo Huu Phuoc, prodziekan Wydziału Prawa Gospodarczego Uniwersytetu Ekonomii i Prawa, przedstawił referat na temat wpływu sztucznej inteligencji (AI) na system prawny, doświadczeń legislacyjnych krajów na całym świecie oraz sugestii politycznych dla Wietnamu.
Referat wygłosił docent dr Ngo Huu Phuoc, prodziekan Wydziału Prawa Gospodarczego Uniwersytetu Ekonomicznego i Prawa. Zdjęcie: Komitet Organizacyjny
Według pana Phuoca, Chiny należą do krajów o wyjątkowym podejściu do zarządzania sztuczną inteligencją. Kraj ten stosuje wielowarstwowy model, łącząc podstawowe przepisy, takie jak ustawa o cyberbezpieczeństwie (2017), ustawa o bezpieczeństwie danych (2021), ustawa o ochronie danych osobowych (2021), ze specjalistycznymi regulacjami, regulacjami lokalnymi i standardami technicznymi o charakterze „prawa miękkiego”. Takie podejście pomaga Chinom zarówno ściśle zarządzać, jak i tworzyć warunki do testowania technologii w ramach kontroli.
Głównymi zaletami są szybkość i elastyczność, umożliwiające szybkie dostosowywanie polityki do praktyk technologicznych, a jednocześnie wspierające rozwój silnego ekosystemu AI. Model ten naraża jednak również na ograniczenia w zakresie prywatności, nakładania się przepisów prawnych oraz ryzyko tłumienia innowacji z powodu głębokiej interwencji państwa.
Opierając się na doświadczeniach międzynarodowych, profesor nadzwyczajny dr Ngo Huu Phuoc uważa, że Wietnam nie powinien na obecnym etapie uchwalać odrębnej ustawy o sztucznej inteligencji. Powodem jest to, że krajowy ekosystem sztucznej inteligencji nie jest jeszcze wystarczająco dojrzały, aby go zalegalizować. Tymczasem „sztywne ramy prawne” będą hamować innowacje. Z drugiej strony, zasoby państwa w zakresie zarządzania są nadal ograniczone.
Zamiast tego zaproponował opracowanie etycznych ram sztucznej inteligencji (kodeksu postępowania), które miałyby stanowić wytyczne dla odpowiedzialnego zachowania i rozwoju, zbudowanie środowiska testowego dla sztucznej inteligencji, które umożliwiłoby kontrolowane testowanie, a także nowelizację i uzupełnienie istniejących przepisów w celu zintegrowania regulacji związanych ze sztuczną inteligencją z obowiązującym systemem prawnym.
Zdaniem ekspertów, dzięki tym kierunkom Wietnam będzie mógł elastycznie, bezpiecznie i zgodnie z rzeczywistą sytuacją w kraju korzystać z szans, jakie daje sztuczna inteligencja.
Kiedy sztuczna inteligencja puka do drzwi szpitala
Według profesora nadzwyczajnego dr. Le Minh Khoi – kierownika Wydziału Nauki i Szkolenia Uniwersytetu Medycznego i Szpitala Farmaceutycznego w Ho Chi Minh City – w porównaniu z dziedzinami takimi jak ekonomia czy komunikacja, sztuczna inteligencja w medycynie rozwija się w oparciu o wiele zaawansowanych modeli. Jednak praktyczne zastosowania wciąż są ostrożne. „Lekarze wciąż badają, czy sztuczna inteligencja jest „przyjacielem”, czy „wrogiem” – powiedział profesor nadzwyczajny dr Le Minh Khoi.
Zdaniem profesora nadzwyczajnego dr. Le Minh Khoi wprowadzenie sztucznej inteligencji do medycyny niesie ze sobą szereg potencjalnych zagrożeń, takich jak bezpieczeństwo i prywatność danych, stronniczość algorytmów i etyka, kwestie bezpieczeństwa, odpowiedzialności i przejrzystości...
Jednym z największych zagrożeń jest „złudzenie” sztucznej inteligencji (AI). Jeśli błędy wystąpią w powszechnie wdrożonym systemie, konsekwencje mogą dotknąć tysiące pacjentów. Kwestia odpowiedzialności jest również drażliwa: jeśli sztuczna inteligencja spowoduje błędy w diagnozie lub leczeniu, kto ponosi odpowiedzialność – lekarz korzystający z systemu, twórca systemu, dystrybutor, szpital czy organ regulacyjny?
Scena konferencji - Zdjęcie: Komitet Organizacyjny
Ponadto, jeśli lekarze będą zbyt mocno polegać na sztucznej inteligencji, mogą utracić zdolność myślenia i wydawania osądów klinicznych, a także stopniowo utracić zdolność wykrywania i korygowania błędów, podczas gdy nadzór ludzki pozostaje niezbędnym czynnikiem. Ponadto konserwatywne nastawienie, strach przed utratą pracy lub brak zrozumienia technologii również sprawiają, że wielu pracowników medycznych waha się przed skorzystaniem ze sztucznej inteligencji.
Odnosząc się do wyzwań prawnych, profesor nadzwyczajny dr Le Minh Khoi zauważył, że tempo rozwoju sztucznej inteligencji (AI) obecnie znacznie przekracza możliwości systemu regulacyjnego. Technologia rozwija się zbyt szybko, a regulacje są powolne, co powoduje, że popadamy w „duszącą” sytuację między dwoma skrajnościami: jeśli ją zaostrzymy, stłumi to innowacyjność, a jeśli ją rozluźnimy, będzie to ryzykowne dla pacjentów. Ponadto infrastruktura danych medycznych w Wietnamie jest nadal rozdrobniona, niespójna i o nierównej jakości, co utrudnia szkolenie i testowanie modeli AI.
Pan Khoi podsumował, że sztuczna inteligencja stanowi ogromną szansę dla branży medycznej, ale także test ludzkiej zdolności adaptacji, otwartości i odpowiedzialności w erze cyfrowej.
Źródło: https://nld.com.vn/chuyen-gia-gop-y-khong-voi-luat-hoa-ai-196251007140039549.htm
Komentarz (0)