Prezentowane na Wystawie Noblowskiej w ramach programu Dialogu Noblowskiego 2025 zorganizowanego przez Ambasadę Szwecji we współpracy z Uniwersytetem RMIT Wietnamu w Ho Chi Minh City, 15 września – zdjęcie: THANH HIEP
Podczas Dialogu Noblowskiego 2025, zorganizowanego przez Ambasadę Szwecji we współpracy z Uniwersytetem RMIT w Wietnamie w Ho Chi Minh, 15 września międzynarodowi eksperci technologiczni przedstawili wiele perspektyw na temat równowagi między innowacjami w dziedzinie sztucznej inteligencji (AI) a odpowiedzialnością wobec ludzkości.
Przemawiając na programie, profesor Virginia Dignum (Uniwersytet w Umeå, Szwecja), specjalizująca się w odpowiedzialnej sztucznej inteligencji, podkreśliła: „Podobnie jak Alfred Nobel, który martwił się wpływem nauki , my – osoby pracujące w dziedzinie sztucznej inteligencji – musimy również zadać sobie pytanie: Jaki jest wpływ naszej pracy? Czy sztuczną inteligencję można wykorzystać w dobrym celu, dla dobra ludzkości?” – podkreśliła pani Dignum.
Silna sztuczna inteligencja, silne uprzedzenia
Pani Dignum opisuje tę technologię jako monetę o dwóch stronach: sztuczna inteligencja rozwiązuje tyle samo problemów, ile sama stwarza. Sztuczna inteligencja oferuje bezprecedensowe możliwości, ale jednocześnie grozi podważeniem fundamentów cywilizacji, która ją stworzyła.
Zależność sztucznej inteligencji od danych ludzkich sprawia, że nigdy nie jest ona w pełni „neutralna”, jak wielu uważa. Za pozornie obiektywnymi systemami sztucznej inteligencji stoją miliony pracowników, którzy po cichu zbierają, przetwarzają i dostarczają dane. Sztuczna inteligencja nie tworzy nowych danych, a jedynie powtarza, a czasem wyolbrzymia, istniejące dane stworzone przez ludzi.
„Coraz potężniejsze algorytmy nie tylko zwiększają dokładność i szybkość działania sztucznej inteligencji, ale także wzmacniają istniejące uprzedzenia, wyrządzając ludziom jeszcze większą krzywdę” – ostrzegała profesor Dignum. Dlatego największym wyzwaniem dla współczesnego społeczeństwa nie jest ograniczanie sztucznej inteligencji, ale odpowiedzialne nią zarządzanie. Podkreśliła, że odpowiedzialność nie spoczywa na sztucznej inteligencji, ale na społeczeństwie, rządzie i samych ludziach.
„Nie możemy wybierać między innowacją a odpowiedzialnością etyczną. Zarządzanie na wszystkich szczeblach jest kamieniem milowym dla rozwoju nauki i dobrobytu” – powiedziała.
Nikt nie zostaje w tyle
Zgadzając się z argumentacją profesora Dignuma, dr Abdul Rohman, starszy wykładowca na Uniwersytecie RMIT w Wietnamie, zauważył, że obecny stan wyścigu sztucznej inteligencji nadal opiera się na podejściu technologicznie-centrycznym, zapominając o tym, że sztuczna inteligencja musi koncentrować się wokół ludzi.
Z tego powodu wielu twórców sztucznej inteligencji nie zdaje sobie sprawy, jak ważne jest zrozumienie specyficznych doświadczeń życiowych użytkowników.
Pan Rohman podał przykład społeczności głuchych w Ho Chi Minh City, której słownictwo jest bardzo skromne ze względu na ograniczenia języka migowego.
Jednak projektowanie poleceń dla sztucznej inteligencji to umiejętność, która w dużej mierze opiera się na słownictwie lub głosie. To sprawia, że społeczność głuchych, a w szczególności grupy wrażliwe, są niewidocznie wykluczone z postępu technologicznego.
„Jeśli chodzi o inkluzywne zarządzanie sztuczną inteligencją lub innowacje, które przynoszą korzyści wszystkim, ignoruje się dane osób, które nie stanowią większości. Doświadczenia z życia wzięte nie są uwzględniane w innowacjach w dziedzinie sztucznej inteligencji” – powiedział Rohman.
Pan Rohman stwierdził, że Wietnam nadal musi „zlokalizować” modele sztucznej inteligencji, aby lepiej odpowiadały specyficznemu kontekstowi krajowemu.
Wietnam ma nie tylko obszary miejskie, takie jak Hanoi, Ho Chi Minh czy Da Nang, ale także obszary górskie, gdzie infrastruktura cyfrowa jest słabo rozwinięta. To tworzy lukę w dostępie do technologii cyfrowych .
„Jeśli nie zajmiemy się tym problemem, grupy już znajdujące się w niekorzystnej sytuacji zostaną jeszcze bardziej zepchnięte w cień przez sztuczną inteligencję. Problem jest jeszcze poważniejszy, jeśli ludzie wiedzą, jak korzystać ze sztucznej inteligencji, ale nie wiedzą, jak chronić się przed zagrożeniami. Możemy przeprowadzić badania, aby stworzyć zestaw narzędzi, który umożliwi równy dostęp do sztucznej inteligencji i ochroni użytkowników. To obszar, w którym sektor prywatny, państwo i środowisko akademickie mogą połączyć siły” – zasugerował.
Nowe podejścia do edukacji w erze sztucznej inteligencji
W obliczu fali ogromnych inwestycji w sprzęt i infrastrukturę AI, wielu ekspertów twierdzi, że kluczem do sukcesu nie jest technologia, a ludzie. Jeśli chcesz zdominować rynek AI, zacznij od edukacji.
Gazeta SCMP zacytowała dr. Jacka Ilmonena, eksperta ds. sztucznej inteligencji i analizy danych z Uniwersytetu Keiser (USA), który podkreślił: „Kraj, który najlepiej wyposaży swoich obywateli w umiejętność efektywnej współpracy z AI, stanie na czele pod względem produktywności, innowacyjności i konkurencyjności”.
Kolektywna siła, wzmocniona przez sztuczną inteligencję, stanie się wówczas dominującą przewagą strategiczną. W szerszej perspektywie dane i sprzęt to tylko „amunicja”, edukacja to „broń”.
Dr Rita Mokbel, prezes i dyrektor generalny Ericsson Vietnam, potwierdziła, że nowa sytuacja sprawia, że współpraca między rządem, środowiskiem akademickim i przemysłem jest jeszcze ważniejsza. Należy ją rozwijać już na etapie integracji sztucznej inteligencji z programem nauczania.
„Z naszego doświadczenia, nie tylko w dziedzinie sztucznej inteligencji, ale także w zakresie transformacji cyfrowej, wynika, że gdy rząd przejmuje inicjatywę i łączy siły ze środowiskiem akademickim, sektorem prywatnym i publicznym, mogą zdarzyć się cuda”.
Źródło: https://tuoitre.vn/ai-chon-doi-moi-hay-trach-nhiem-20250918075637729.htm
Komentarz (0)