Wie beurteilen Sie den Trend, dass Hacker KI „bewaffnen“, um Cyberangriffe und Betrugsmaschen durchzuführen?

Dr. Nguyen Tuan Khang: Laut dem IBM X-Force Threat Intelligence Index 2024 gehörte die Region Asien- Pazifik , einschließlich Vietnam, im Jahr 2023 zu den drei Regionen weltweit, die am stärksten von Cyberangriffen betroffen waren. Der Fertigungssektor war am stärksten von diesen Cyberangriffen betroffen.

Die Haupttaktik von Cyberkriminellen besteht weiterhin in Phishing-Angriffen, die auf schutzbedürftige Personen abzielen und Sicherheitslücken ausnutzen, um Schadsoftware zu installieren. Darüber hinaus zeichnet sich ab 2024 ein neuer Trend ab: Cyberangriffe unter Einsatz künstlicher Intelligenz (KI).

Einem Bericht von Wired zufolge nutzen viele böswillige Akteure KI-generierte Inhalte, um Hacking-Versuche zu steuern, betrügerische Chatbots zu erstellen oder gefälschte Bilder und Videos zu produzieren, die mithilfe der Deepfake-Technologie die Gesichter und Stimmen anderer Menschen imitieren.

Parallel zu diesem Trend integrieren Informationssicherheitssysteme zunehmend KI-Funktionen wie WatsonX. Künstliche Intelligenz kann zwar ausgenutzt werden, aber sie kann auch Menschen bei der Analyse, Überwachung, digitalen Identifizierung und Vorhersage von Angriffsszenarien ersetzen und so die Verteidigungsfähigkeit verbessern und Informationssicherheitsrisiken minimieren.

W-nguyen-tuan-khang-ibm-1.jpg
Cybersicherheitsexperte Nguyen Tuan Khang. Foto: Trong Dat

Deepfake-Betrugsfälle werden immer häufiger. Wie gefährlich werden diese Angriffe angesichts der rasanten Entwicklung von KI in Zukunft sein?

Dr. Nguyen Tuan Khang: Deepfake ist im Grunde eine Technologie, die es Hackern ermöglicht, gefälschte digitale Identitäten zu erstellen und sich so als andere auszugeben. Deepfake wird zu einem gefährlichen Problem, da diese Technologie immer ausgefeilter wird.

Um Deepfakes zu bekämpfen, muss zunächst festgestellt werden, ob ein Bild oder eine Stimme von einer KI erzeugt wurde. Derzeit gibt es kein universelles Werkzeug zur sofortigen Erkennung von Deepfakes, da Angreifer ständig neue Modelle entwickeln.

Neben der Identifizierung von Deepfakes ist die Verhaltensanalyse mithilfe von Technologie eine weitere Methode, um diese zu bekämpfen. Aus organisatorischer oder geschäftlicher Sicht ist es notwendig, ein System zu entwickeln, das beide Techniken kombiniert.

In letzter Zeit häufen sich Cyberangriffe, bei denen Hacker unbemerkt Schadsoftware in die Systeme von Unternehmen einschleusen. Diese Schadsoftware bleibt unentdeckt, analysiert alle Aktivitäten und erstellt eine falsche Identität, um böswillige Absichten zu verfolgen. Mit der Entwicklung der Deepfake-Technologie in Verbindung mit KI-gestützten Videoerstellungsfunktionen werden diese Angriffe in Zukunft noch gefährlicher werden.

Angesichts der zunehmenden Deepfake-Cyberangriffe: Wie können wir ältere Menschen, Kinder und andere gefährdete Gruppen vor Betrügern schützen?

Dr. Nguyen Tuan Khang: Ältere Menschen und Kinder werden häufig von Betrügern ins Visier genommen, die eine Technik namens Social Engineering anwenden. Dieser Begriff beschreibt Angriffe, die das menschliche Verhalten manipulieren.

Hacker können KI nun in Verbindung mit Datenerfassung, -auswertung und -analyse nutzen, um besonders anfällige Personen für Betrugsmaschen zu identifizieren und diese gezielt anzugreifen. Neben der Sensibilisierung der Öffentlichkeit müssen wir akzeptieren, dass Betrugsfälle vorkommen, und Technologien einsetzen, um solche Vorfälle zu erkennen und zu verhindern.

W-lua-dao-truc-tuyen-1.jpg
Warnung der Polizei des Bezirks Thanh Luong ( Hanoi ) vor Betrügern, die sich als Polizeibeamte ausgeben, um Menschen zur Geldüberweisung zu verleiten. Foto: Trong Dat

Kürzlich kam es zu einem Vorfall, bei dem ein Bankangestellter den Verdacht hegte, eine ältere Dame sei bei einer Geldüberweisung Opfer eines Betrugs geworden. Der Angestellte schritt umgehend ein und meldete den Vorfall den Behörden. Die IT-Systeme der Banken benötigen heutzutage Technologien, die menschliches Eingreifen in solchen Fällen ersetzen können.

Die Technologie spielt dabei eine Rolle: Selbst wenn der Absender als rechtmäßiger Eigentümer bekannt ist, blockiert das System die Transaktion, wenn es den Verdacht einer Manipulation durch Dritte hat. Solche Systeme werden Betrugspräventionssysteme genannt.

Ist es an der Zeit, dass Vietnam Regulierungen zur Steuerung von KI einführt und KI-Forschung, -Entwicklung und -Anwendung in einen strukturierten Rahmen bringt?

Dr. Nguyen Tuan Khang: Die Regulierung von KI wird schon lange diskutiert, doch es gibt immer noch viele strittige Punkte. Beispielsweise verfügt der Parkplatz in meiner Nachbarschaft über ein KI-System zur Kennzeichenerkennung, trotzdem kommt es weiterhin zu Diebstählen. Daraufhin entbrannte die Debatte um die Schuldfrage. Trägt der Gebäudebesitzer, der Sicherheitsdienst oder der Entwickler des KI-Systems die Verantwortung?

Daraufhin änderte das Gebäude seine Hausordnung. Bewohner konnten nun optional die KI-gestützte Kennzeichenerkennung nutzen, mussten aber die damit verbundenen Risiken in Kauf nehmen. Wer zustimmte, konnte die automatischen Tore benutzen, alle anderen mussten wie gewohnt parken. Wir brauchen ein solches System.

Ähnlich entwickelte IBM einst ein KI-System zur Krebsprävention. Als das System Medikamente verschrieb, der Patient diese einnahm, aber dennoch nicht gerettet werden konnte, lag der Fehler dann beim Arzt oder bei der künstlichen Intelligenz?

Ich denke, die Regulierung von KI muss präzise sein und klar festlegen, was bei der Entwicklung von KI-Anwendungen erlaubt und was verboten ist. Um die Welt sicherer zu machen, wäre die grundlegendste Maßnahme, die wir ergreifen könnten, die biometrische Verifizierung großer Geldtransfers vorzuschreiben. So könnten Menschen, deren Identität kompromittiert wurde, Geldverluste vollständig vermeiden.

Danke, Sir.

Es wird erwartet, dass Deepfake-Betrugsfälle, einschließlich Gesichts- und Stimmenimitationen, im Jahr 2024 zunehmen werden . Laut Prognose von VSEC werden KI-gestützte Cyberangriffe, einschließlich Deepfake-Betrugsfälle zur Imitation von Gesichtern und Stimmen, im Jahr 2024 zunehmen.