Vietnam.vn - Nền tảng quảng bá Việt Nam

Sztuczna inteligencja staje się bronią psychologiczną cyberprzestępców

(Dan Tri) - Sztuczna inteligencja staje się przerażającym narzędziem dla cyberprzestępców, zdolnym do tworzenia scenariuszy deepfake i manipulowania psychiką ofiar.

Báo Dân tríBáo Dân trí15/11/2025

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 1

Na wydarzeniu przemawiał generał dywizji Le Xuan Minh, dyrektor Departamentu Cyberbezpieczeństwa i Zapobiegania Przestępczości z Wykorzystaniem Technologii High-Tech (zdjęcie: NCA).

Rankiem 15 listopada Konkurs Studencki z Zakresu Cyberbezpieczeństwa 2025 oficjalnie wszedł w fazę finałową.

Organizatorem konkursu było Narodowe Stowarzyszenie Cyberbezpieczeństwa, pod auspicjami Ministerstwa Bezpieczeństwa Publicznego oraz Ministerstwa Edukacji i Szkolenia. W ramach wydarzenia odbyła się dyskusja na temat: Ochrona osób i organizacji przed cyberatakami w erze cyfrowej: Proaktywne identyfikowanie i reagowanie na potencjalne zagrożenia.

Podczas dyskusji dr Huynh Thi Thanh Binh, wicedyrektor Wydziału Technologii Informacyjnych i Komunikacji Uniwersytetu Naukowo-Technicznego w Hanoi , opowiedziała historię znajomej studentki zagranicznej, która niedawno padła ofiarą wyjątkowo wyrafinowanego oszustwa technologicznego.

W tym przypadku oszust podszywał się pod policjanta i fałszywie oskarżył ofiarę o udział w transakcji narkotykowej.

Nie tylko manipulowali ofiarami i żądali od nich pieniędzy na śledztwo, ale także eskalowali swoją psychikę do tego stopnia, że ​​zmuszali je do „rozebrania się”, by zrobić zdjęcia, a następnie wykorzystywali te drażliwe obrazy do szantażowania rodziny.

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 2

Eksperci podczas sesji dyskusyjnej (zdjęcie: NCA).

Historia ukazuje przerażającą rzeczywistość: sztuczna inteligencja (AI) stała się oficjalnie bronią w wojnie psychologicznej.

To już nie są odosobnione oszustwa. Pan Ngo Tuan Anh, dyrektor generalny Wietnamskiej Spółki Akcyjnej ds. Bezpieczeństwa Danych, powiedział, że w ciągu zaledwie jednego roku liczba ataków phishingowych opartych na sztucznej inteligencji wzrosła 20-krotnie.

Dlaczego sztuczna inteligencja jest tak niebezpieczna?

Pułkownik dr Nguyen Hong Quan, szef Departamentu Bezpieczeństwa Danych i Ochrony Danych Osobowych w Krajowym Stowarzyszeniu Cyberbezpieczeństwa, powiedział, że obecnie technologia deepfake potrzebuje zaledwie około 30 sekund, aby naśladować ludzki głos.

Podzielając ten pogląd, pan Ngo Minh Hieu, dyrektor Organizacji Antyfraudowej, stwierdził, że dzisiejsi cyberprzestępcy niekoniecznie muszą być wybitnymi hakerami. Teraz mogą korzystać ze specjalnie zaprojektowanych narzędzi AI.

„Istnieje obecnie cały podziemny rynek, na którym sztuczna inteligencja jest dostosowywana do potrzeb przestępców i sprzedawana w miesięcznych pakietach, tak jak płacą za to użytkownicy ChatGPT.

Za jedyne 200-300 dolarów miesięcznie każdy może stać się posiadaczem narzędzia AI, które automatycznie kompiluje skrypty oszustw, przeszukuje ofiary, a nawet tworzy wirusy zawierające złośliwy kod, np. ransomware” – powiedział pan Hieu.

Lukratywna przynęta dla hakerów

Jednym z najzacieklejszych frontów wojny ze sztuczną inteligencją jest identyfikacja cyfrowa (eKYC). W Wietnamie działa obecnie 27 milionów kont z elektroniczną identyfikacją. To „gruba przynęta” w oczach hakerów.

Pan Phan Trong Quan, Kierownik Działu Oceny Bezpieczeństwa Informacji w Grupie VNPT , wyjaśnił, że przestępcy nie stosują już prymitywnych sztuczek, takich jak wklejanie numerów identyfikacyjnych czy kodów QR na fałszywych dokumentach. Teraz stosują technologię deepfake, aby skopiować dane identyfikacyjne.

Najbardziej wyrafinowaną metodą jest atak typu „Man-in-the-Middle”. Gdy użytkownik dokonuje uwierzytelnienia wideo, np. obraca twarz lub odczytuje polecenia, haker staje w środku, aby móc ingerować w przesyłane dane.

„Wstawiają przygotowane wcześniej filmy deepfake, zastępując prawdziwy strumień danych użytkownika, aby ominąć uwierzytelnianie. System bankowy i finansowy „zobaczy” fałszywą twarz, ale uwierzy, że jest prawdziwa” – ostrzegł pan Quan.

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 3

Według pana Vu Duy Hiena, zastępcy sekretarza generalnego Krajowego Stowarzyszenia Cyberbezpieczeństwa, studenci są siłą napędową na pierwszej linii frontu ochrony narodowej suwerenności cyfrowej (zdjęcie: NCA).

Jedynym rozwiązaniem na ataki z prędkością maszyn jest użycie „tarczy”, która również działa z prędkością maszyn. Eksperci twierdzą, że to wojna ze sztuczną inteligencją.

Pan Phan Trong Quan ujawnił, jak VNPT przezbraja sztuczną inteligencję na potrzeby obrony. Zamiast analizować jedynie obrazy twarzy, system VNPT wykorzystuje sztuczną inteligencję do wykrywania nietypowych zachowań.

Technologia ta opiera się na biometrii behawioralnej – analizie drobnych szczegółów, których ludzie nie są w stanie dostrzec, ale sztuczna inteligencja tak.

Sztuczna inteligencja będzie analizować sposób, w jaki użytkownicy trzymają telefon. Prawdziwy użytkownik będzie naturalnie drżał i poruszał się. Jednocześnie sposób, w jaki palce użytkownika wchodzą w interakcję z ekranem, będzie tworzył różne strefy ciepła. Sztuczna inteligencja nauczy się tego nawyku, aby odróżniać prawdziwych ludzi od botów.

Wszystkie te dane trafiają do „silnika uczenia maszynowego” wykorzystującego sieci neuronowe. Jeśli sztuczna inteligencja wykryje, że bieżące zachowanie różni się nietypowo od danych historycznych, zablokuje konto, blokując sesję handlową, zanim dojdzie do jakichkolwiek szkód.

Najsłabszym czynnikiem są ludzie

Jednak nawet najsilniejsza „tarcza” sztucznej inteligencji staje się bezużyteczna, jeśli ludzie otwierają drzwi wrogom.

Eksperci są zgodni: ludzie są najsłabszym ogniwem każdego defensywnego modelu organizacyjnego.

Pan Hoang Manh Duc, kierownik grupy badawczej ds. bezpieczeństwa systemów na Uniwersytecie FPT, powiedział, że model obrony oparty na „wysokim murze i głębokiej fosie” jest przestarzały. Era chmury obliczeniowej i Internetu Rzeczy wymaga nowej strategii: „Zero Trust”.

Filozofia Zero Trust opiera się na założeniu, że nie ufamy żadnemu połączeniu, żadnemu urządzeniu, ani wewnętrznemu, ani zewnętrznemu, wszystkie muszą być bardzo ściśle uwierzytelniane.

Ale technologia to tylko część równania. Nguyen Duc Duy, starszy inżynier rozwiązań w Huawei Vietnam, podkreślił znaczenie niezmiennych kopii zapasowych – czyli takich, których nie można nadpisać, usunąć ani zmodyfikować – w połączeniu z całkowicie odizolowanymi partycjami, aby zapewnić możliwość odzyskania danych po ataku typu ransomware.

Dr Doan Trung Son, dyrektor programu cyberbezpieczeństwa na Uniwersytecie Phenikaa, zwrócił uwagę, że problemem Wietnamu jest brak „kultury cyberbezpieczeństwa”.

Ta kultura nie jest kwestią wyłącznie technologii, jest to kwestia ludzi i musi być wdrażana odgórnie, zaczynając od świadomości kadry kierowniczej.

Walka o ochronę cyberprzestrzeni Wietnamu to nowy front w obronie Ojczyzny. Aby wygrać, Wietnam podejmuje działania na wszystkich trzech filarach: technologii, prawie i, co najważniejsze, na ludziach.

Źródło: https://dantri.com.vn/cong-nghe/ai-dang-tro-thanh-vu-khi-chien-tranh-tam-ly-cua-toi-pham-mang-20251115171410658.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Oglądanie wschodu słońca na wyspie Co To
Wędrując wśród chmur Dalatu
Kwitnące pola trzciny w Da Nang przyciągają mieszkańców i turystów.
„Sa Pa of Thanh land” jest mgliste we mgle

Od tego samego autora

Dziedzictwo

Postać

Biznes

Piękno wioski Lo Lo Chai w sezonie kwitnienia gryki

Aktualne wydarzenia

System polityczny

Lokalny

Produkt