Vietnam.vn - Nền tảng quảng bá Việt Nam

Künstliche Intelligenz entwickelt sich zu einer Waffe der psychologischen Kriegsführung für Cyberkriminelle.

(Dan Tri) - Künstliche Intelligenz entwickelt sich zu einem erschreckenden Werkzeug für Cyberkriminelle, das in der Lage ist, Deepfake-Szenarien zu erstellen und die Psychologie der Opfer zu manipulieren.

Báo Dân tríBáo Dân trí15/11/2025

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 1

Generalmajor Le Xuan Minh, Direktor der Abteilung für Cybersicherheit und Bekämpfung von Hightech-Kriminalität, hielt bei der Veranstaltung eine Rede (Foto: NCA).

Am Morgen des 15. November trat der Cyber ​​Security Student Competition 2025 offiziell in die Endrunde ein.

Der Wettbewerb wurde von der Nationalen Vereinigung für Cybersicherheit unter der Schirmherrschaft des Ministeriums für Öffentliche Sicherheit und des Ministeriums für Bildung und Ausbildung ausgerichtet. Im Rahmen der Veranstaltung fand eine Diskussion zum Thema „Schutz von Einzelpersonen und Organisationen vor Cyberangriffen im digitalen Zeitalter: Proaktive Identifizierung und Reaktion auf potenzielle Risiken“ statt.

Im Rahmen der Diskussion erzählte Dr. Huynh Thi Thanh Binh, stellvertretende Leiterin der Fakultät für Informationstechnologie und Kommunikation an der Technischen Universität Hanoi , die Geschichte einer internationalen Studentin, die sie kannte und die kürzlich Opfer eines äußerst raffinierten Technologiebetrugs geworden war.

In diesem Fall gab sich der Betrüger als Polizist aus und beschuldigte das Opfer fälschlicherweise, in ein Drogengeschäft verwickelt zu sein.

Sie manipulierten die Opfer nicht nur und forderten sie auf, Geld für die Ermittlungen zu überweisen, sondern steigerten die psychische Belastung auch so weit, dass sie die Opfer zwangen, sich auszuziehen, um Fotos machen zu lassen, und benutzten dann diese sensiblen Bilder, um die Familie zu erpressen.

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 2

Experten in der Diskussionsrunde (Foto: NCA).

Die Geschichte schildert eine erschreckende Realität: Künstliche Intelligenz (KI) ist offiziell zu einer Waffe der psychologischen Kriegsführung geworden.

Es handelt sich hierbei nicht mehr um vereinzelte Betrugsfälle. Herr Ngo Tuan Anh, Generaldirektor der Vietnam Data Security Joint Stock Company, erklärte, dass sich die Zahl der KI-gestützten Phishing-Angriffe innerhalb eines Jahres verzwanzigfacht habe.

Warum ist KI so gefährlich?

Oberst Dr. Nguyen Hong Quan, Leiter der Abteilung für Datensicherheit und Schutz personenbezogener Daten der Nationalen Cybersicherheitsvereinigung, sagte, dass die Deepfake-Technologie jetzt nur noch etwa 30 Sekunden benötigt, um eine menschliche Stimme zu imitieren.

Herr Ngo Minh Hieu, Direktor der Anti-Betrugs-Organisation, teilte diese Ansicht und erklärte, dass Cyberkriminelle heutzutage nicht unbedingt herausragende Hacker sein müssen. Sie können nun speziell entwickelte KI-Tools einsetzen.

„Es gibt mittlerweile einen ganzen Untergrundmarkt, auf dem KI für Kriminelle angepasst und in monatlichen Paketen verkauft wird, genau wie es ChatGPT-Nutzer tun.“

„Für nur 200 bis 300 Dollar im Monat kann sich jeder ein KI-Tool beschaffen, das automatisch Betrugsskripte erstellt, Opfer überprüft und sogar Viren mit Schadcode wie Ransomware erzeugt“, teilte Herr Hieu mit.

Ein lukrativer Köder für Hacker

Eine der schärfsten Fronten im Kampf gegen die KI ist die digitale Identifizierung (eKYC). In Vietnam gibt es derzeit bis zu 27 Millionen Konten, die mit elektronischer Identifizierung eröffnet wurden. Für Hacker ist dies ein gefundenes Fressen.

Herr Phan Trong Quan, Leiter der Abteilung für Informationssicherheitsbewertung der VNPT- Gruppe, erklärte, dass Kriminelle nicht mehr auf simple Tricks wie das Aufkleben von Ausweisnummern oder QR-Codes auf gefälschte Dokumente zurückgreifen. Sie nutzen nun Deepfake-Technologie, um die Identifikationsdaten zu kopieren.

Die raffinierteste Methode ist der „Man-in-the-Middle“-Angriff. Während der Nutzer eine Videoauthentifizierung durchführt, beispielsweise durch Drehen des Gesichts oder Vorlesen von Befehlen, schaltet sich der Hacker dazwischen, um die Datenübertragung zu manipulieren.

„Sie fügen vorgefertigte Deepfake-Videos ein und ersetzen damit den echten Datenstrom des Nutzers, um die Authentifizierung zu umgehen. Das Banken- und Finanzsystem sieht dann zwar ein gefälschtes Gesicht, hält es aber für echt“, warnte Herr Quan.

AI đang trở thành vũ khí chiến tranh tâm lý của tội phạm mạng - 3

Laut Herrn Vu Duy Hien, stellvertretendem Generalsekretär der Nationalen Cybersicherheitsvereinigung, sind Studenten die Speerspitze beim Schutz der nationalen digitalen Souveränität (Foto: NCA).

Die einzige Lösung gegen Angriffe in Maschinengeschwindigkeit ist der Einsatz eines „Schutzschildes“, der ebenfalls in Maschinengeschwindigkeit arbeitet. Experten sprechen von einem Krieg gegen die KI.

Herr Phan Trong Quan erläuterte, wie VNPT KI für Verteidigungszwecke neu auflegt. Anstatt lediglich Gesichtsbilder zu analysieren, nutzt das System von VNPT KI, um ungewöhnliches Verhalten zu erkennen.

Die Technologie basiert auf Verhaltensbiometrie – der Analyse kleinster Details, die Menschen nicht wahrnehmen können, KI aber schon.

Die KI analysiert, wie Nutzer ihr Smartphone halten. Ein echter Nutzer zeigt dabei natürliche Bewegungen und ein leichtes Zittern. Gleichzeitig entstehen durch die Interaktion der Finger mit dem Bildschirm unterschiedliche Wärmezonen. Die KI lernt diese Gewohnheiten, um zwischen echten Menschen und Bots zu unterscheiden.

Alle diese Daten werden in eine „Maschinelles-Lernsystem“ eingespeist, das neuronale Netze nutzt. Stellt die KI fest, dass das aktuelle Verhalten ungewöhnlich von den historischen Daten abweicht, sperrt sie das Konto und beendet die Handelssitzung, bevor Schaden entstehen kann.

Der schwächste Faktor sind die Menschen.

Doch selbst der stärkste KI-„Schutzschild“ ist nutzlos, wenn die Menschen den Feinden die Tür öffnen.

Experten sind sich einig: Der Mensch ist das schwächste Glied in jedem defensiven Organisationsmodell.

Herr Hoang Manh Duc, Leiter der Forschungsgruppe für Systemsicherheit an der FPT-Universität, erklärte, das Verteidigungsmodell „hohe Mauer, tiefer Graben“ sei überholt. Das Zeitalter von Cloud und IoT erfordere eine neue Strategie: „Zero Trust“.

Die Philosophie von Zero Trust besteht darin, dass wir keiner Verbindung und keinem Gerät vertrauen, egal ob intern oder extern, alles muss sehr streng authentifiziert werden.

Technologie ist jedoch nur ein Teil der Lösung. Nguyen Duc Duy, Senior Solution Engineer bei Huawei Vietnam, betonte die Wichtigkeit unveränderlicher Backups – also solcher, die nicht überschrieben, gelöscht oder verändert werden können – in Kombination mit vollständig isolierten Partitionen, um sicherzustellen, dass Daten nach einem Ransomware-Angriff jederzeit wiederhergestellt werden können.

Dr. Doan Trung Son, Direktor des Cybersicherheitsprogramms an der Phenikaa-Universität, wies darauf hin, dass Vietnams Problem im Mangel an einer „Cybersicherheitskultur“ liege.

Diese Kultur ist nicht nur eine Frage der Technologie, sondern vor allem eine Frage der Menschen und muss von oben nach unten umgesetzt werden, angefangen bei der Sensibilisierung der Führungsebene.

Der Kampf um den Schutz des vietnamesischen Cyberspace ist eine neue Front im Kampf für die Verteidigung des Vaterlandes. Um zu gewinnen, setzt Vietnam auf alle drei Säulen: Technologie, Recht und – am wichtigsten – die Bevölkerung.

Quelle: https://dantri.com.vn/cong-nghe/ai-dang-tro-thanh-vu-khi-chien-tranh-tam-ly-cua-toi-pham-mang-20251115171410658.htm


Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Den Sonnenaufgang auf der Insel Co To beobachten
Wandernd zwischen den Wolken von Dalat
Die blühenden Schilffelder in Da Nang ziehen Einheimische und Touristen gleichermaßen an.
'Sa Pa xứ Thanh' mờ ảo trong sương mù

Gleicher Autor

Erbe

Figur

Geschäft

Die Schönheit des Dorfes Lo Lo Chai während der Buchweizenblütezeit

Aktuelle Ereignisse

Politisches System

Lokal

Produkt