Etykietowanie produktów generowanych przez sztuczną inteligencję

Podkreślając znaczenie mechanizmu kontroli ryzyka związanego ze sztuczną inteligencją w dzisiejszym świecie, poseł Nguyen Tam Hung (HCMC) wyraził opinię, że projekt ustawy zobowiązującej dostawców do zapewnienia czytelnych maszynowo oznaczeń treści związanych ze sztuczną inteligencją jest bardzo potrzebny; zasugerował jednak rozważenie wprowadzenia obowiązkowego wymogu wyświetlania informacji identyfikacyjnych bezpośrednio na interaktywnym interfejsie, gdy treść może wprowadzać w błąd, aby chronić zwykłych użytkowników, zwłaszcza dzieci i osoby starsze, przed ryzykiem dezinformacji i deepfake'ów. Regulacja ta wzmacnia społeczną odpowiedzialność dostawców technologii i buduje zaufanie ludzi do rozwiązań cyfrowych.
Poseł Nguyen Tam Hung powiedział również, że dzięki badaniom odkrył, iż obecny, wielofunkcyjny model sztucznej inteligencji nie tylko tworzy tekst lub obrazy, ale może również generować kod źródłowy, narzędzia ataku, instrukcje wykonania, procesy cyberataków, metody oszustw finansowych itd. W związku z tym poseł zaproponował dodanie obowiązku kontrolowania „zdolności samogenerowania” modelu w przypadku zezwalania na generowanie kodu źródłowego, a także mechanizmu ostrzegania, blokowania i ograniczania danych wyjściowych, który jest niezbędny do zapewnienia bezpieczeństwa sieci oraz porządku i bezpieczeństwa społecznego.

Odnosząc się także do zagrożeń stwarzanych przez sztuczną inteligencję, poseł Pham Van Hoa ( Dong Thap ) stwierdził, że chociaż technologia sztucznej inteligencji jest narzędziem wspierającym ludzi, niesie ze sobą wiele poważnych zagrożeń; poseł zwrócił się do komisji redakcyjnej z prośbą o obiektywną i dokładną ocenę tej kwestii.
„Ryzyko może wpływać na życie ludzkie, własność, prawa i uzasadnione interesy organizacji i osób fizycznych” – powiedział poseł Pham Van Hoa, dodając, że produkty stworzone przez sztuczną inteligencję powinny być oznakowane. Według niego, oznakowanie AI ma na celu poinformowanie ludzi, które produkty zostały stworzone przez sztuczną inteligencję, a które nie.

Tymczasem posłanka Trinh Thi Tu Anh ( Lam Dong ) stwierdziła, że artykuł 11 projektu ustawy nie w pełni odzwierciedla ideę oceny ryzyka w oparciu o wpływ technologii. Jej zdaniem, w obecnym kontekście sztuczna inteligencja może tworzyć szkodliwe metody, które nigdy nie zostały zidentyfikowane. Dlatego posłanka Trinh Thi Tu Anh zaproponowała dodanie przepisu: „Rząd szczegółowo określi, będzie okresowo aktualizował i uzupełniał listę systemów sztucznej inteligencji o niedopuszczalnym ryzyku w oparciu o ocenę ryzyka, trendy technologiczne i praktyczne wymogi zarządzania. Jej zdaniem mechanizm ten gwarantuje, że prawo nie stanie się nieaktualne i będzie mogło szybko reagować na nowe zagrożenia”.
Unikanie nadużyć sztucznej inteligencji
Poseł Tran Khanh Thu (Hung Yen) poruszył kwestię sztucznej inteligencji (AI) we wspieraniu badań lekarskich i leczenia, stwierdzając, że AI nie tylko pomaga optymalizować procesy w branży medycznej, zmniejszając obciążenie lekarzy i personelu medycznego, ale także odgrywa ważną rolę w personalizacji leczenia, poprawiając tym samym wyniki opieki zdrowotnej i zwiększając efektywność wykorzystania zasobów. Jednak stosowanie AI do wykrywania objawów chorobowych bywa czasem nieefektywne.

Delegatka przytoczyła przykład z życia 55-letniego pacjenta z Ho Chi Minh City, który był w letargu, gdy przywieziono go do szpitala. Wcześniej rodzina pacjenta korzystała ze sztucznej inteligencji (AI) w celu postawienia diagnozy, a następnie kupowała mu leki. Po podaniu leków stan pacjenta się pogorszył, a gdy trafił do szpitala, zdiagnozowano u niego uszkodzenie mózgu, udar i nieuniknione powikłania.
„Zdecydowanie, ludzie nie powinni wykorzystywać wyników wyszukiwania do diagnozowania ani przepisywania leków. Czy jednak osoby sprzedające leki na podstawie recept wystawianych przez sztuczną inteligencję łamią prawo?” – zastanawiał się poseł Tran Khanh Thu, wyrażając nadzieję, że projekt ustawy o sztucznej inteligencji będzie zawierał bardziej szczegółowe przepisy ramowe dotyczące zarządzania produktami wykorzystującymi sztuczną inteligencję w sektorze opieki zdrowotnej, zwłaszcza w odniesieniu do obowiązków zainteresowanych stron.
Jeśli chodzi o przejście od audytu poaudytowego do audytu wstępnego w projekcie ustawy, poseł Tran Khanh Thu zasugerował, że powinien istnieć wyraźny próg ilościowy, na przykład gdy model zmienia swój algorytm, zwiększa się rozmiar użytkownika lub gdy dane szkoleniowe przekraczają określony próg.

Analizując dalej kwestię „nadużywania sztucznej inteligencji”, poseł Pham Trong Nghia (Lang Son) stwierdził, że nadmierne uzależnienie od sztucznej inteligencji w naszym życiu ograniczy naszą zdolność myślenia i kreatywność. Nadużywanie sztucznej inteligencji niesie ze sobą wiele potencjalnych zagrożeń, takich jak: naruszanie suwerenności narodowej, ograniczanie efektywności administracji publicznej i negatywny wpływ na każdą jednostkę i każdą rodzinę, zwłaszcza młode pokolenie.
„W sektorze publicznym nadużycia związane ze sztuczną inteligencją ograniczają wykonalność, humanitaryzm i skuteczność polityk i przepisów. Udostępnianie sztucznej inteligencji poufnych informacji i danych, jeśli nie jest ściśle kontrolowane, może prowadzić do wycieków danych, zagrażając bezpieczeństwu narodowemu, porządkowi społecznemu i bezpieczeństwu, a konsekwencje mogą być nieprzewidywalne” – powiedział poseł Pham Trong Nghia, który zaproponował dodanie do projektu ustawy przepisu określającego czyny zabronione, w tym zakazującego nadużywania sztucznej inteligencji w sektorze publicznym.
Źródło: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Komentarz (0)