Rozwój sztucznej inteligencji (AI) przynosi ludzkości ogromne korzyści, ale pociąga za sobą także niezliczone konsekwencje: od uprzedzeń rasowych i wyrafinowanych oszustw internetowych po ryzyko, że kraje rozwijające się staną się tanimi „kopalniami danych”.
Biorąc pod uwagę tę rzeczywistość, czy odpowiedzialne korzystanie ze sztucznej inteligencji powinno być dobrowolne, czy obowiązkowe? Co powinien zrobić Wietnam, budując korytarz prawny w tej dziedzinie?
Przy okazji wydarzenia VinFuture Science and Technology Week reporter rozmawiał z profesorem Tobym Walshem z University of New South Wales (Australia), członkiem Amerykańskiego Towarzystwa Komputerowego.
Profesor dzieli się przemyśleniami na temat tego, jak „zachowujemy się” w kontekście sztucznej inteligencji, od pociągania „maszyn” do odpowiedzialności po wskazówki dla rodzin, jak chronić się przed falą oszustw związanych z zaawansowaną technologią.
Kto odpowiada za sztuczną inteligencję?
Profesorze, czy odpowiedzialne korzystanie ze sztucznej inteligencji powinno być dobrowolne czy obowiązkowe? I jak właściwie powinniśmy się wobec niej zachowywać?
- Jestem głęboko przekonany, że odpowiedzialne korzystanie ze sztucznej inteligencji powinno być obowiązkowe . W grę wchodzą przewrotne bodźce , a na sztucznej inteligencji zarabia się ogromne pieniądze, a jedynym sposobem na zapewnienie właściwego zachowania jest wprowadzenie surowych regulacji , tak aby interes publiczny zawsze równoważył interesy komercyjne .
Kiedy sztuczna inteligencja popełnia błąd, kto ponosi odpowiedzialność? Zwłaszcza w przypadku agentów SI, czy jesteśmy w stanie naprawić ich mechanizmy działania?
Podstawowy problem z popełnianiem błędów przez sztuczną inteligencję polega na tym, że nie możemy pociągnąć jej do odpowiedzialności. Sztuczna inteligencja nie jest człowiekiem – i jest to wada każdego systemu prawnego na świecie . Tylko ludzie mogą ponosić odpowiedzialność za swoje decyzje i działania.

Nagle mamy nowego „agenta”, sztuczną inteligencję, która może — jeśli jej na to pozwolimy — podejmować decyzje i działać na naszym świecie, co stawia przed nami wyzwanie: kogo będziemy pociągać do odpowiedzialności?
Odpowiedź brzmi: Firmy wdrażające i obsługujące systemy AI muszą ponosić odpowiedzialność za konsekwencje, jakie powodują te „maszyny”.
Wiele firm mówi również o odpowiedzialnej sztucznej inteligencji. Jak możemy im zaufać? Skąd wiemy, że są poważne i kompleksowe, a nie tylko używają „odpowiedzialnej sztucznej inteligencji” jako chwytu marketingowego?
– Musimy zwiększyć przejrzystość. Ważne jest, aby zrozumieć możliwości i ograniczenia systemów AI. Powinniśmy również „głosować poprzez działanie”, czyli wybierać usługi w sposób odpowiedzialny.
Szczerze wierzę, że odpowiedzialne wykorzystanie sztucznej inteligencji przez firmy stanie się czynnikiem wyróżniającym je na rynku, dając im przewagę konkurencyjną.
Jeśli firma szanuje dane klientów, przyniesie to korzyści i przyciągnie klientów. Firmy zrozumieją, że postępowanie właściwie jest nie tylko etyczne, ale także pomoże im odnieść sukces. Uważam to za sposób na rozróżnienie firm, a firmy odpowiedzialne to takie, z którymi możemy czuć się komfortowo robiąc interesy.
Wietnam musi aktywnie chronić wartości kulturowe.
Wietnam jest jednym z niewielu krajów rozważających wprowadzenie ustawy o sztucznej inteligencji. Jak Pan to ocenia? Jakie wyzwania stoją przed krajami rozwijającymi się, takimi jak Wietnam, w zakresie etyki i bezpieczeństwa w rozwoju sztucznej inteligencji?
– Bardzo się cieszę, że Wietnam jest jednym z pionierów w dziedzinie sztucznej inteligencji, który będzie miał specjalistyczną ustawę o sztucznej inteligencji. To ważne, ponieważ każdy kraj ma swoje własne wartości i kulturę, i potrzebuje przepisów, które je chronią.
Wietnamskie wartości i kultura różnią się od tych w Australii, Chinach i Stanach Zjednoczonych. Nie możemy oczekiwać, że firmy technologiczne z Chin czy Stanów Zjednoczonych będą automatycznie chronić wietnamską kulturę i język. Wietnam musi przejąć inicjatywę w celu ich ochrony.
Mam świadomość, że w przeszłości wiele krajów rozwijających się przeszło okres fizycznej kolonizacji. Jeśli nie będziemy ostrożni, możemy przejść okres „cyfrowej kolonizacji”. Twoje dane zostaną wykorzystane, a ty staniesz się tanim zasobem.
Istnieje ryzyko, że kraje rozwijające się będą rozwijać przemysł sztucznej inteligencji w sposób, który polega wyłącznie na wykorzystywaniu danych, bez kontrolowania i ochrony własnych interesów.
Jak więc przezwyciężyć tę sytuację?
– To proste: Inwestuj w ludzi. Podnoś ich kwalifikacje, upewnij się, że rozumieją sztuczną inteligencję. Wspieraj przedsiębiorców, firmy zajmujące się sztuczną inteligencją, wspieraj uniwersytety. Bądź proaktywny. Zamiast czekać, aż inne kraje przekażą nam technologię lub nas poprowadzą, musimy działać proaktywnie i opanować tę technologię.

Profesor Toby Walsh przemawia na VinFuture Science and Technology Week (Zdjęcie: Komitet Organizacyjny).
Po drugie, musimy zdecydowanie zabiegać o to, aby platformy mediów społecznościowych tworzyły bezpieczne środowisko dla użytkowników w Wietnamie, nie wpływając jednocześnie negatywnie na demokrację w tym kraju.
W rzeczywistości istnieje wiele przykładów, w jaki sposób treści publikowane w mediach społecznościowych wpływały na wyniki wyborów, powodowały podziały w krajach, a nawet podżegały do terroryzmu.
Od 40 lat pracuję nad sztuczną inteligencją. Przez pierwsze 30 lat interesowało mnie, jak zwiększyć jej możliwości. W ciągu ostatnich 10 lat coraz bardziej interesuję się odpowiedzialnym rozwojem AI i głośno o tym mówię.
Czy może Pan udzielić kilku rad, ponieważ Wietnam jest w trakcie opracowywania ustawy o sztucznej inteligencji?
– Jest wiele przypadków, w których nowe przepisy nie są potrzebne. Mamy już przepisy dotyczące prywatności, mamy już przepisy dotyczące konkurencji. Te obowiązujące przepisy mają zastosowanie do przestrzeni cyfrowej tak samo, jak do świata fizycznego.
Ważne jest, aby egzekwować te prawa w środowisku cyfrowym tak samo ściśle, jak robimy to w środowisku fizycznym.
Pojawiają się jednak pewne nowe zagrożenia, które zaczynamy dostrzegać. Ludzie zaczynają nawiązywać relacje ze sztuczną inteligencją, wykorzystując ją jako terapeutów, a czasami może to wyrządzić użytkownikom krzywdę, dlatego musimy zachować ostrożność.
Zawsze pociągamy producentów do odpowiedzialności za wprowadzanie produktów na rynek. Na przykład, jeśli firmy produkujące sztuczną inteligencję wypuszczają produkty, które szkodzą ludziom, one również powinny ponieść odpowiedzialność.
Jak więc możemy zapobiec szkodliwemu wpływowi sztucznej inteligencji na dzieci i stworzyć dzieciom bezpieczne środowisko, kiedykolwiek pojawi się sztuczna inteligencja, proszę pana?
– Myślę, że nie wyciągnęliśmy zbyt wielu wniosków z mediów społecznościowych. Wiele krajów zaczyna teraz zdawać sobie sprawę, że media społecznościowe mają ogromne zalety, ale też wiele wad, zwłaszcza jeśli chodzi o wpływ na zdrowie psychiczne, poziom lęku i postrzeganie własnego ciała u młodych ludzi, a zwłaszcza dziewcząt.
Wiele krajów już rozpoczęło wdrażanie środków mających na celu rozwiązanie tego problemu. W Australii limit wieku uprawniający do korzystania z mediów społecznościowych wejdzie w życie 10 grudnia. Myślę, że potrzebujemy podobnych środków w odniesieniu do sztucznej inteligencji.
Tworzymy narzędzia, które mogą mieć pozytywny wpływ, ale mogą też wyrządzać szkody. Musimy chronić umysły i serca naszych dzieci przed tymi negatywnymi skutkami.
Ponadto mam nadzieję, że państwa wprowadzą również surowe regulacje dotyczące zarządzania sieciami społecznościowymi, tworząc w ten sposób naprawdę bezpieczne środowisko dla wszystkich korzystających ze sztucznej inteligencji.
W rzeczywistości nie tylko dzieci, ale i dorośli stają w obliczu zagrożeń stwarzanych przez samą sztuczną inteligencję. Jak więc ludzie mogą wykorzystać sztuczną inteligencję do poprawy swojego życia, nie stwarzając zagrożenia?
- Sztuczna inteligencja znajduje zastosowanie w wielu dziedzinach, pomagając poprawić jakość naszego życia. W medycynie pomaga w odkrywaniu nowych leków. W edukacji przynosi również wiele korzyści.
Jednak udostępnianie sztucznej inteligencji bez odpowiednich zabezpieczeń jest zbyt ryzykowne. W Stanach Zjednoczonych widzieliśmy procesy sądowe, w których rodzice pozywali firmy technologiczne, które doprowadziły ich dzieci do samobójstwa po interakcji z chatbotami opartymi na sztucznej inteligencji.
Chociaż odsetek użytkowników ChatGPT doświadczających problemów ze zdrowiem psychicznym wynosi zaledwie kilka procent, przy setkach milionów użytkowników, rzeczywista liczba wynosi setki tysięcy.
Dane są bardzo ważne dla rozwoju AI, ale z perspektywy zarządzania, zbyt rygorystyczne zarządzanie danymi utrudni rozwój AI. Jakie zagrożenia może Twoim zdaniem nieść za sobą luźniejsze zarządzanie danymi? Jak znaleźć równowagę między gromadzeniem danych i bezpiecznym zarządzaniem nimi a tworzeniem rozwiązań dla AI?
– Absolutnie się zgadzam. Dane są podstawą postępu w dziedzinie sztucznej inteligencji , ponieważ to one go napędzają. Bez danych nie osiągniemy żadnego postępu. Wysokiej jakości dane są podstawą wszystkiego, co robimy. W rzeczywistości wartość komercyjna i przewaga konkurencyjna, jaką firmy zyskują, wynikają z danych. Kluczowe jest to, czy dysponujemy danymi wysokiej jakości, czy nie.
To wkurzające, że książki autorów z całego świata – w tym moja – są wykorzystywane bez pozwolenia i bez wynagrodzenia. To kradzież owoców pracy innych ludzi. Jeśli ta sytuacja się utrzyma, autorzy stracą motywację do pisania książek, a my utracimy wartości kulturowe, które cenimy.
Musimy znaleźć rozwiązanie bardziej sprawiedliwe niż to, które mamy teraz.
Obecnie „Dolina Krzemowa” odbiera autorom treści i twórczość, nie płacąc za to – to nie do utrzymania. Porównuję obecną sytuację do Napstera i początków muzyki online w latach 2000. Wtedy muzyka online była „kradziona”, ale nie mogła trwać wiecznie, ponieważ muzycy potrzebowali dochodów, aby móc dalej tworzyć.
Wreszcie mamy płatne systemy streamingowe , takie jak Spotify czy Apple Music, albo muzykę wspieraną reklamami, gdzie część przychodów trafia do artystów. Musimy zrobić to samo z książkami, aby autorzy czerpali korzyści z ich danych. W przeciwnym razie nikt nie będzie miał motywacji do pisania książek, a świat będzie o wiele gorszy bez nowych tytułów.

W ramach VinFuture Science and Technology Week w Vincom Royal City Contemporary Art Center odbędzie się również wystawa „Toa V - Touchpoint of Science” (zdjęcie: Komitet Organizacyjny).
Sztuczna inteligencja jest w Wietnamie bardzo rozwinięta. W ostatnim czasie Wietnam wprowadził wiele polityk promujących sztuczną inteligencję, ale kraj ten zmaga się również z problemem oszustw związanych z tą technologią. Jak zatem, zdaniem Profesora, Wietnam powinien poradzić sobie z tą sytuacją? Jakie rady Profesor ma dla osób korzystających obecnie ze sztucznej inteligencji, aby zapewnić bezpieczeństwo i chronić swoje dane?
– Myślę, że dla każdego najprostszą metodą jest weryfikacja informacji. Na przykład, po odebraniu telefonu lub e-maila, na przykład z banku, musimy to sprawdzić ponownie: możemy oddzwonić na numer abonenta lub skontaktować się bezpośrednio z bankiem, aby zweryfikować informacje.
W dzisiejszych czasach jest mnóstwo fałszywych e-maili, fałszywych numerów telefonów, a nawet fałszywych połączeń na Zoomie. Te oszustwa są proste, niedrogie i nie zajmują dużo czasu.
W mojej rodzinie mamy również własne zabezpieczenie: „tajne pytanie”, które znają tylko członkowie rodziny, na przykład imię naszego królika. Dzięki temu ważne informacje pozostają w rodzinie i nie wyciekają.
Wietnam również włączył edukację na temat sztucznej inteligencji do kształcenia ogólnego. Na co zatem należy zwrócić uwagę w tym procesie?
- Sztuczna inteligencja zmienia to, czego się uczy i jak się tego uczy. Wpływa na ważne umiejętności przyszłości, takie jak myślenie krytyczne, umiejętności komunikacyjne, inteligencja społeczna i inteligencja emocjonalna. Umiejętności te staną się niezbędne.
Sztuczna inteligencja może wspomagać nauczanie tych umiejętności, na przykład jako osobisty korepetytor, osobisty asystent w nauce, dostarczając bardzo skutecznych narzędzi edukacyjnych za pomocą aplikacji opartych na sztucznej inteligencji.
Dziękuję, Panie Profesorze, że znalazł Pan czas na naszą rozmowę!
Source: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






Komentarz (0)