Panel dyskusyjny „Sztuczna inteligencja dla ludzkości: etyka i bezpieczeństwo sztucznej inteligencji w nowej erze” w ramach Tygodnia Nauki i Technologii VinFuture 2025 gromadzi naukowców, polityków i wynalazców, aby dyskutować o odpowiedzialnym rozwoju sztucznej inteligencji w kierunku wartości humanistycznych.
Na marginesie dyskusji profesor Toby Walsh z University of New South Wales (Australia), członek Amerykańskiego Stowarzyszenia Maszyn Liczących, podzielił się przemyśleniami na temat etycznego i odpowiedzialnego korzystania ze sztucznej inteligencji.
Odpowiedzialne korzystanie ze sztucznej inteligencji powinno być obowiązkowe
– Zdaniem Profesora, czy odpowiedzialne korzystanie ze sztucznej inteligencji powinno być dobrowolne, czy obowiązkowe? I jak właściwie powinniśmy się wobec niej zachowywać?
Profesor Toby Walsh: Jestem głęboko przekonany, że odpowiedzialne korzystanie ze sztucznej inteligencji powinno być obowiązkowe. W obecnej sytuacji, gdy na sztucznej inteligencji zarabia się ogromne pieniądze, istnieją przewrotne bodźce, a jedynym sposobem na zapewnienie dobrego zachowania jest wprowadzenie surowych przepisów, aby interes publiczny zawsze był zrównoważony z interesami komercyjnymi.
- Czy możesz podać konkretne przykłady odpowiedzialnych i etycznych zastosowań sztucznej inteligencji z różnych krajów?
Profesor Toby Walsh: Klasycznym przykładem są decyzje o dużej wadze, takie jak wydawanie wyroków skazujących w Stanach Zjednoczonych, gdzie system sztucznej inteligencji jest wykorzystywany do formułowania zaleceń dotyczących kary pozbawienia wolności i prawdopodobieństwa ponownego popełnienia przestępstwa przez daną osobę.
Niestety, ten system został opracowany na podstawie danych historycznych i nieumyślnie odzwierciedla dawne uprzedzenia rasowe, które prowadzą do dyskryminacji osób czarnoskórych. Nie powinniśmy pozwalać, aby takie systemy decydowały o tym, kto trafi do więzienia.
– Kiedy sztuczna inteligencja popełnia błąd, kto ponosi odpowiedzialność? Zwłaszcza w przypadku agentów SI, czy jesteśmy w stanie naprawić ich mechanizmy działania?
Profesor Toby Walsh: Podstawowy problem, gdy sztuczna inteligencja popełnia błędy, polega na tym, że nie możemy pociągnąć jej do odpowiedzialności. Sztuczna inteligencja nie jest człowiekiem i jest to wada każdego systemu prawnego na świecie . Tylko ludzie ponoszą odpowiedzialność za swoje decyzje i działania.
Nagle mamy nowego „agenta” zwanego sztuczną inteligencją, który może – jeśli mu na to pozwolimy – podejmować decyzje i działać na naszym świecie, co stawia przed nami wyzwanie: kogo będziemy pociągać do odpowiedzialności?
Rozwiązaniem jest pociągnięcie firm wdrażających i obsługujących systemy AI do odpowiedzialności za konsekwencje powodowane przez te „maszyny”.

Profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii wygłosił wykład na seminarium „Sztuczna inteligencja dla ludzkości: etyka i bezpieczeństwo sztucznej inteligencji w nowej erze” w ramach Tygodnia Nauki i Technologii VinFuture 2025. (Zdjęcie: Minh Son/Vietnam+)
– Wiele firm mówi również o odpowiedzialnej sztucznej inteligencji. Jak możemy im zaufać? Skąd wiemy, że działają poważnie i kompleksowo, a nie tylko wykorzystują „odpowiedzialną sztuczną inteligencję” jako chwyt marketingowy?
Profesor Toby Walsh: Musimy zwiększyć przejrzystość. Ważne jest zrozumienie możliwości i ograniczeń systemów sztucznej inteligencji. Powinniśmy również „głosować poprzez działanie” – decydując się na odpowiedzialne korzystanie z usług.
Głęboko wierzę, że odpowiedzialne wykorzystanie sztucznej inteligencji przez firmy stanie się czynnikiem wyróżniającym je na rynku, dając im przewagę konkurencyjną. Jeśli firma szanuje dane klientów, przyniesie to korzyści i przyciągnie klientów.
Firmy zrozumieją, że postępowanie właściwie jest nie tylko etyczne, ale także przyczynia się do ich sukcesu. Uważam to za sposób na rozróżnienie firm, a firmy odpowiedzialne to te, z którymi możemy czuć się komfortowo, robiąc interesy.
„Jeśli nie będziemy ostrożni, możemy doświadczyć okresu kolonizacji cyfrowej”
– Wietnam jest jednym z niewielu krajów rozważających wprowadzenie ustawy o sztucznej inteligencji. Jak Pan to ocenia? Jakie wyzwania stoją przed krajami rozwijającymi się, takimi jak Wietnam, w zakresie etyki i bezpieczeństwa w rozwoju sztucznej inteligencji? Jakie zalecenia ma profesor dla Wietnamu, aby osiągnąć cele w strategii rozwoju sztucznej inteligencji – znaleźć się w czołówce regionu i świata w badaniach i rozwoju sztucznej inteligencji?
Profesor Toby Walsh: Cieszę się, że Wietnam jest jednym z pionierów w dziedzinie sztucznej inteligencji, który będzie miał własną ustawę o sztucznej inteligencji. To ważne, ponieważ każdy kraj ma swoje własne wartości i kulturę i potrzebuje przepisów chroniących te wartości.
Wietnamskie wartości i kultura różnią się od tych w Australii, Chinach i Stanach Zjednoczonych. Nie możemy oczekiwać, że firmy technologiczne z Chin czy Stanów Zjednoczonych będą automatycznie chronić wietnamską kulturę i język. Wietnam musi przejąć inicjatywę w celu ich ochrony.

Profesor Toby Walsh ostrzega, że jeśli nie będziemy ostrożni, możemy doświadczyć okresu kolonizacji cyfrowej. (Zdjęcie: Minh Son/Vietnam+)
Pamiętam, że w przeszłości wiele krajów rozwijających się przeszło okres fizycznej kolonizacji. Jeśli nie będziemy ostrożni, możemy przejść okres „cyfrowej kolonizacji”. Twoje dane zostaną wykorzystane i staniesz się tanim zasobem.
Istnieje ryzyko, że kraje rozwijające się będą rozwijać przemysł sztucznej inteligencji w sposób, który polega wyłącznie na wykorzystywaniu danych, bez kontrolowania i ochrony własnych interesów.
- Jak więc wyjść z tej sytuacji, Panie Profesorze?
Profesor Toby Walsh: To proste: inwestuj w ludzi. Podnoś ich kwalifikacje, upewnij się, że rozumieją sztuczną inteligencję. Wspieraj przedsiębiorców, firmy i uniwersytety zajmujące się sztuczną inteligencją. Bądź proaktywny. Zamiast czekać, aż inne kraje przekażą nam technologię lub będą nas prowadzić, musimy działać proaktywnie i posiadać tę technologię.
Co ważniejsze, musimy zdecydowanie zabiegać o to, aby platformy mediów społecznościowych tworzyły bezpieczne środowisko dla użytkowników w Wietnamie, nie wpływając jednocześnie negatywnie na demokrację w tym kraju.
W rzeczywistości istnieje wiele przykładów, w jaki sposób treści publikowane w mediach społecznościowych wpływały na wyniki wyborów, powodowały podziały w krajach, a nawet podżegały do terroryzmu.
- Sztuczna inteligencja jest bardzo rozwinięta w Wietnamie. W ostatnim czasie Wietnam wprowadził wiele polityk promujących sztuczną inteligencję, ale Wietnam zmaga się również z problemem oszustw związanych z tą dziedziną. Jak zatem, zdaniem Profesora, Wietnam powinien poradzić sobie z tą sytuacją?
Profesor Toby Walsh: Myślę, że w przypadku osób fizycznych najprostszym sposobem jest weryfikacja informacji. Na przykład, gdy odbieramy telefon lub e-mail, na przykład z banku, musimy to sprawdzić ponownie: możemy oddzwonić na ten numer telefonu lub skontaktować się bezpośrednio z bankiem, aby zweryfikować informacje. Obecnie istnieje wiele fałszywych e-maili, fałszywych numerów telefonów, a nawet połączeń na Zoomie. Te oszustwa są bardzo proste, niedrogie i nie zajmują dużo czasu.
W mojej rodzinie mamy również własne zabezpieczenie: „tajne pytanie”, które znają tylko członkowie rodziny, na przykład imię naszego królika. Dzięki temu ważne informacje pozostają w rodzinie i nie wyciekają.
- Dziękuję bardzo./.
Profesor Toby Walsh jest honorowym stypendystą ARC i profesorem Scientia w dziedzinie sztucznej inteligencji (AI) na Uniwersytecie Nowej Południowej Walii w Sydney (UNSW). Jest zdecydowanym orędownikiem wyznaczania granic, aby zapewnić wykorzystanie AI do poprawy jakości życia ludzi.
Jest również członkiem Australijskiej Akademii Nauk i został wpisany na międzynarodową listę „wpływowych osób w dziedzinie sztucznej inteligencji”.
(Wietnam+)
Source: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






Komentarz (0)