Co sądzisz o trendzie hakerów polegającym na „wykorzystywaniu” sztucznej inteligencji do przeprowadzania cyberataków i oszustw?

Dr Nguyen Tuan Khang: Według indeksu X-Force Threat Intelligence firmy IBM z 2024 r., region Azji i Pacyfiku , w tym Wietnam, będzie celem największej liczby ataków cybernetycznych na świecie w 2023 r. Sektorem najbardziej dotkniętym atakami cybernetycznymi jest sektor produkcyjny.

Główną metodą cyberprzestępców nadal są ataki phishingowe, których celem są osoby podatne na ataki i które wykorzystują luki w zabezpieczeniach, aby instalować złośliwe oprogramowanie. Ponadto, w 2024 roku coraz popularniejszym trendem są cyberataki z wykorzystaniem sztucznej inteligencji (AI).

Raport Wired wskazuje, że wielu złoczyńców wykorzystuje sztuczną inteligencję generatywną do wspomagania ataków hakerskich, tworzenia fałszywych chatbotów lub tworzenia obrazów i filmów Deepfake, które imitują twarze i głosy innych osób.

Jednak wraz z tym trendem, systemy bezpieczeństwa informacji zaczynają również integrować funkcje sztucznej inteligencji (AI), takie jak WatsonX. Sztuczna inteligencja może być wykorzystywana, ale może również zastąpić ludzi w analizie, monitorowaniu, identyfikacji liczb i przewidywaniu scenariuszy ataków, poprawiając w ten sposób możliwości obronne i minimalizując ryzyko dla bezpieczeństwa informacji.

W-nguyen-tuan-khang-ibm-1.jpg
Ekspert ds. cyberbezpieczeństwa Nguyen Tuan Khang. Zdjęcie: Trong Dat

Oszustwa typu deepfake stają się coraz powszechniejsze. Jak niebezpieczne będą te ataki w przyszłości, biorąc pod uwagę szybki rozwój sztucznej inteligencji?

Dr Nguyen Tuan Khang: Zasadniczo, deepfake to technologia, która pomaga hakerom tworzyć fałszywe tożsamości cyfrowe, podszywając się pod innych. Deepfake będzie stanowić niebezpieczny problem, ponieważ technologia ta staje się coraz bardziej zaawansowana.

Aby zwalczać deepfake, należy przede wszystkim ustalić, czy wizerunek lub głos danej osoby został wygenerowany przez sztuczną inteligencję. Obecnie nie ma uniwersalnego narzędzia, które pozwalałoby natychmiast wykrywać deepfake, ponieważ atakujący stale opracowują nowe modele.

Oprócz wykrywania deepfake, istnieje inna technika radzenia sobie z tym problemem, polegająca na wykorzystaniu technologii do analizy zachowań. Z perspektywy organizacyjnej i biznesowej konieczne jest opracowanie systemu łączącego obie te techniki.

W ostatnim czasie miały miejsce cyberataki, w których hakerzy potajemnie umieszczali złośliwe oprogramowanie w systemie firmy. Szkodliwe oprogramowanie czai się i analizuje każdą aktywność, tworząc w ten sposób fałszywą tożsamość, która służy do realizacji złośliwych zamiarów. Wraz z rozwojem technologii Deepfake, w połączeniu z możliwością tworzenia filmów przez sztuczną inteligencję, tego typu ataki będą w przyszłości znacznie bardziej niebezpieczne.

W jaki sposób możemy chronić osoby starsze, dzieci i inne grupy narażone na oszustwa, biorąc pod uwagę rosnącą liczbę ataków cybernetycznych Deepfake?

Dr Nguyen Tuan Khang: Osoby starsze i dzieci często padają ofiarą oszustów stosujących technikę zwaną socjotechniką. Termin ten opisuje ataki polegające na manipulacji ludzkim zachowaniem.

Hakerzy mogą teraz wykorzystywać sztuczną inteligencję w połączeniu z gromadzeniem, eksploracją i analizą danych, aby identyfikować osoby, które mogą paść ofiarą oszustwa, a następnie znajdować sposoby ataku. Oprócz podnoszenia świadomości społecznej, musimy również zaakceptować, że sytuacje, w których użytkownicy padają ofiarą oszustwa, będą się zdarzać, i musimy wykorzystać technologię do ich wykrywania i zapobiegania.

W-online-fraud-1.jpg
Ostrzeżenie policji okręgu Thanh Luong ( Hanoi ) o przypadkach podszywania się pod policjantów w celu wyłudzenia przelewów pieniężnych. Zdjęcie: Trong Dat

Niedawno pracownik banku podejrzewał, że starsza kobieta, która przyszła przelać pieniądze, nosiła ślady oszustwa. Osoba ta natychmiast przerwała transakcję i zgłosiła sprawę władzom. Systemy informatyczne banków dysponują obecnie technologią, która może zastąpić ludzi w takich zadaniach.

Rolą technologii jest to, że nawet jeśli wiadomo, że nadawca jest prawdziwą osobą, system i tak zatrzyma transfer, jeśli istnieje podejrzenie, że transakcją steruje ktoś inny. Takie narzędzia nazywane są systemami zapobiegania oszustwom.

Czy nadszedł czas, aby Wietnam wprowadził sankcje mające na celu zarządzanie sztuczną inteligencją oraz ustanowił ramy prawne dla badań, rozwoju i wykorzystania sztucznej inteligencji?

Dr Nguyen Tuan Khang: Kwestia zarządzania AI jest dyskutowana od dawna, jednak wciąż istnieje wiele kontrowersji. Na przykład, parking w mojej okolicy ma system AI do rozpoznawania tablic rejestracyjnych, ale kradzieże nadal się zdarzają. Wtedy zaczęły się pojawiać kontrowersje dotyczące tego, kto ponosi winę. Czy winny powinien być właściciel mieszkania, ochroniarz, czy twórca systemu AI?

Od tego czasu budynek zmienił swoje zasady, stwierdzając, że mieszkańcy mogą zdecydować się na korzystanie ze sztucznej inteligencji do rozpoznawania tablic rejestracyjnych dla wygody, ale muszą zaakceptować ryzyko. Ci, którzy się na to zgodzą, będą mogli korzystać z automatycznych drzwi, a ci, którzy nie, będą musieli parkować samochody po staremu. Potrzebujemy takich sankcji.

Podobnie, IBM opracował kiedyś system sztucznej inteligencji, który pomagał zapobiegać nowotworom. Kiedy system przepisał lek, a pacjent go przyjął, ale nadal nie udało się go uratować, czy to wina lekarza, czy sztucznej inteligencji?

Uważam, że regulacje dotyczące sztucznej inteligencji muszą być precyzyjne i jasno określać, co można, a czego nie można robić podczas tworzenia aplikacji AI. Aby uczynić świat bezpieczniejszym, najprostszym rozporządzeniem, jakie możemy wprowadzić, jest wymóg, aby duże przelewy pieniężne były rozpoznawane biometrycznie. W takiej sytuacji osoby, które utracą swoje dane osobowe, mogą całkowicie uniknąć utraty pieniędzy.

Dziękuję.

Oszustwa typu deepfake oraz podszywanie się pod inne osoby będą coraz częstsze w 2024 r . Według prognozy VSEC, w 2024 r. wzrośnie liczba cyberataków wykorzystujących sztuczną inteligencję, w tym oszustw typu deepfake polegających na podrabianiu twarzy i głosów.