Was halten Sie vom Trend, dass Hacker KI als Waffe einsetzen, um Cyberangriffe und Betrug durchzuführen?

Dr. Nguyen Tuan Khang: Laut IBMs X-Force Threat Intelligence Index 2024 ist der Asien- Pazifik-Raum , einschließlich Vietnam, die Region, die im Jahr 2023 weltweit am meisten von Cyberangriffen betroffen sein wird. Dabei ist die Fertigungsindustrie die Branche, die am stärksten von Cyberangriffen betroffen ist.

Die Hauptmethode der Kriminellen sind nach wie vor Phishing-Angriffe, die auf gefährdete Personen abzielen und Schwachstellen ausnutzen, um Schadsoftware zu installieren. Darüber hinaus sind Cyberangriffe mit künstlicher Intelligenz (KI) ein neuer Trend im Jahr 2024.

Der Bericht von Wired weist darauf hin, dass viele Kriminelle generative KI nutzen, um Hacks zu steuern, betrügerische Chatbots zu erstellen oder Deepfake-Bilder und -Videos zu erstellen, die die Gesichter und Stimmen anderer Personen nachahmen.

Mit diesem Trend gehen jedoch auch zunehmend KI-Funktionen in Informationssicherheitssysteme ein, wie beispielsweise Watsonx. Künstliche Intelligenz kann genutzt werden, aber auch Menschen bei der Analyse, Überwachung, Identifizierung von Zahlen und der Vorhersage von Angriffsszenarien ersetzen und so die Verteidigungsfähigkeit verbessern und Informationssicherheitsrisiken minimieren.

W-nguyen-tuan-khang-ibm-1.jpg
Cybersicherheitsexperte Nguyen Tuan Khang. Foto: Trong Dat

Deepfake-Betrug kommt immer häufiger vor. Wie gefährlich werden diese Angriffe angesichts der rasanten Entwicklung der KI in Zukunft sein?

Dr. Nguyen Tuan Khang: Deepfake ist eine Technologie, die Hackern hilft, gefälschte digitale Identitäten zu erstellen und sich so als andere auszugeben. Deepfake wird zu einem gefährlichen Problem, da diese Technologie immer ausgefeilter wird.

Um Deepfakes zu bekämpfen, muss zunächst festgestellt werden, ob das Bild oder die Stimme einer Person KI-generiert ist. Derzeit gibt es kein universelles Tool, das Deepfakes sofort erkennen kann, da Angreifer ständig neue Modelle entwickeln.

Neben der Deepfake-Erkennung gibt es eine weitere Technik, um damit umzugehen: den Einsatz von Technologie zur Verhaltensanalyse. Aus organisatorischer und geschäftlicher Sicht ist es notwendig, ein System zu entwickeln, das beide Techniken kombiniert.

In jüngster Zeit kam es zu Cyberangriffen, bei denen Hacker heimlich Schadsoftware in das System eines Unternehmens einschleusten. Die Schadsoftware lauerte und analysierte sämtliche Aktivitäten, wodurch eine gefälschte Identität für böswillige Zwecke erstellt wurde. Mit der Entwicklung der Deepfake-Technologie und der Möglichkeit, KI-Videos zu erstellen, werden solche Angriffe in Zukunft deutlich gefährlicher sein.

Wie können wir angesichts der zunehmenden Zahl von Deepfake-Cyberangriffen ältere Menschen, Kinder und andere gefährdete Gruppen vor Betrügern schützen?

Dr. Nguyen Tuan Khang: Ältere Menschen und Kinder werden häufig von Betrügern angegriffen, die eine Technik namens Social Engineering anwenden. Dieser Begriff beschreibt Angriffe durch die Manipulation menschlichen Verhaltens.

Hacker können heute KI in Kombination mit Datenerfassung, -mining und -analyse nutzen, um potenzielle Betrugsopfer zu identifizieren und Angriffsmöglichkeiten zu finden. Neben der Sensibilisierung der Community müssen wir auch akzeptieren, dass es zu Betrugsfällen kommen kann. Wir müssen Technologien einsetzen, um diese zu erkennen und zu verhindern.

W-online-fraud-1.jpg
Warnung vor Fällen, in denen sich die Polizei des Bezirks Thanh Luong ( Hanoi ) als Polizisten ausgibt, um Geldtransfers zu betrügen. Foto: Trong Dat

Kürzlich gab es einen Fall, in dem ein Bankangestellter den Verdacht hegte, dass eine ältere Frau, die Geld überweisen wollte, Anzeichen eines Betrugs aufwies. Daraufhin stoppte er die Transaktion umgehend und meldete sie den Behörden. Die IT-Systeme der Banken verfügen mittlerweile über Technologien, die Menschen bei solchen Aufgaben ersetzen.

Die Technologie ermöglicht es, die Überweisung zu stoppen, selbst wenn der Absender nachweislich die tatsächliche Person ist, falls der Verdacht besteht, dass die Transaktion von einer anderen Person manipuliert wurde. Solche Tools werden als Betrugspräventionssysteme bezeichnet.

Ist es für Vietnam an der Zeit, Sanktionen zur Kontrolle der KI zu verhängen und die Forschung, Entwicklung und Nutzung der KI in einen Rahmen zu fassen?

Dr. Nguyen Tuan Khang: Das Thema KI-Management wird schon lange diskutiert, es gibt jedoch immer noch viele Kontroversen. Beispielsweise ist der Parkplatz in meiner Gegend mit einem KI-System zur Nummernschilderkennung ausgestattet, trotzdem kam es zu Diebstählen. Damals kam die Kontroverse darüber auf, wer schuld war. Sollte der Wohnungseigentümer, der Wachmann oder der Entwickler des KI-Systems verantwortlich sein?

Seitdem hat das Gebäude seine Regeln geändert. Die Bewohner können nun aus praktischen Gründen KI zur Nummernschilderkennung nutzen, müssen aber die damit verbundenen Risiken in Kauf nehmen. Wer damit einverstanden ist, kann die automatischen Türen benutzen, wer nicht, muss seine Autos auf die alte Art parken. Solche Sanktionen brauchen wir.

IBM entwickelte einst ein KI-System zur Krebsvorbeugung. Wenn das System Medikamente verschrieb, der Patient diese aber einnahm, aber dennoch nicht gerettet werden konnte, ist dann die Schuld des Arztes oder die der KI?

Ich denke, die KI-Regulierung muss spezifisch sein und klar festlegen, was bei der Entwicklung von KI-Anwendungen erlaubt ist und was nicht. Um die Welt sicherer zu machen, ist die grundlegendste Regulierung, die wir treffen können, die biometrischen Erkennung großer Geldtransfers. In einer solchen Situation können Menschen, die ihre Identitätsdaten verlieren, Geldverluste vollständig vermeiden.

Danke schön.

Deepfake-Betrug sowie Gesichts- und Stimmenfälschung werden im Jahr 2024 zunehmen . Laut der Prognose von VSEC werden Cyberangriffe mithilfe von KI, darunter Deepfake-Betrug zur Fälschung von Gesichtern und Stimmen, im Jahr 2024 zunehmen.