Was halten Sie vom Trend, dass Hacker KI als Waffe einsetzen, um Cyberangriffe und Betrug durchzuführen?
Dr. Nguyen Tuan Khang: Laut IBMs X-Force Threat Intelligence Index 2024 ist der asiatisch-pazifische Raum, einschließlich Vietnam, im Jahr 2023 die Region, die weltweit am meisten unter Cyberangriffen zu leiden hat. Dabei ist die Fertigungsindustrie die Branche, die am stärksten von Cyberangriffen betroffen ist.
Der Haupttrick der Kriminellen sind nach wie vor Phishing-Angriffe, die auf gefährdete Personen abzielen und Schwachstellen ausnutzen, um Malware zu installieren. Darüber hinaus zeichnen sich im Jahr 2024 Cyberangriffe mit künstlicher Intelligenz (KI) ab.
Der Bericht von Wired weist darauf hin, dass viele Kriminelle generative KI nutzen, um Hacks zu steuern, betrügerische Chatbots zu erstellen oder mithilfe von Deepfake Bilder und Videos von Gesichtern und Stimmen anderer Personen zu fälschen.
Im Zuge dieses Trends integrieren Informationssicherheitssysteme jedoch auch zunehmend KI-Funktionen, wie beispielsweise Watsonx. Künstliche Intelligenz kann genutzt werden, sie kann aber auch Menschen bei der Analyse, Überwachung, Identifizierung von Zahlen und Vorhersage von Angriffsszenarien ersetzen und so die Verteidigungsfähigkeit verbessern und Informationssicherheitsrisiken minimieren.
Deepfake-Betrug kommt immer häufiger vor. Wie gefährlich werden diese Angriffe angesichts der rasanten Entwicklung der KI in Zukunft sein?
Dr. Nguyen Tuan Khang: Im Grunde ist Deepfake eine Technologie, die Hackern hilft, gefälschte digitale Identitäten zu erstellen und sich so als andere Personen auszugeben. Deepfake wird zu einem gefährlichen Problem, da diese Technologie immer ausgefeilter wird.
Um Deepfake zu bekämpfen, muss zunächst festgestellt werden, ob das Bild oder die Stimme einer Person KI-generiert ist. Derzeit gibt es kein universelles Tool, das Deepfakes sofort erkennen kann, da Angreifer ständig neue Modelle entwickeln.
Neben der Erkennung von Deepfakes gibt es eine weitere Technik, um mit ihnen umzugehen: den Einsatz von Technologie zur Verhaltensanalyse. Aus organisatorischer und geschäftlicher Sicht ist es notwendig, ein System zu entwickeln, das beide Techniken kombiniert.
In jüngster Zeit kam es immer wieder zu Cyberangriffen, bei denen Hacker heimlich Schadcode in Unternehmenssystemen einschleusten. Die Schadsoftware liegt auf der Lauer und analysiert sämtliche Aktivitäten. Auf diese Weise erstellt sie eine falsche Identität, um ihre bösartigen Absichten auszuführen. Mit der Entwicklung der Deepfake-Technologie und der Fähigkeit der KI, Videos zu erstellen, werden diese Arten von Angriffen in Zukunft noch viel gefährlicher werden.
Wie können wir angesichts der zunehmenden Zahl von Deepfake-Cyberangriffen ältere Menschen, Kinder und andere gefährdete Gruppen vor Betrügern schützen?
Dr. Nguyen Tuan Khang: Ältere Menschen und Kinder werden häufig von Betrügern angegriffen, die eine Technik namens Social Engineering anwenden. Dieser Begriff beschreibt Angriffe durch Manipulation menschlichen Verhaltens.
Hacker können jetzt KI in Kombination mit Datenerfassung, -mining und -analyse nutzen, um Personen zu identifizieren, die wahrscheinlich betrogen werden, und dann Wege für Angriffe finden. Neben der Sensibilisierung der Öffentlichkeit müssen wir auch akzeptieren, dass es Situationen geben wird, in denen Benutzer getäuscht werden. Wir müssen Technologien einsetzen, um dies zu erkennen und zu verhindern.
Kürzlich gab es einen Fall, bei dem ein Bankangestellter den Verdacht hegte, dass eine ältere Frau, die gekommen war, um Geld zu überweisen, Anzeichen eines Betrugs aufwies. Diese Person hat den Vorfall dann rechtzeitig gestoppt und den Behörden gemeldet. Die IT-Systeme der Banken müssen heute über Technologien verfügen, die Menschen bei solchen Aufgaben ersetzen.
Die Funktion der Technologie besteht darin, dass das System den Geldtransfer auch dann unterbindet, wenn der Verdacht besteht, dass jemand anderes das Geld manipuliert. Solche Tools werden als Betrugs- und Fälschungsschutzsysteme bezeichnet.
Ist es für Vietnam an der Zeit, Sanktionen zur Kontrolle der KI zu verhängen und die Forschung, Entwicklung und Nutzung der KI in einen Rahmen zu fassen?
Dr. Nguyen Tuan Khang: Sanktionen für das KI-Management werden schon seit langem diskutiert, es gibt jedoch immer noch viele kontroverse Themen. Beispielsweise verfügt der Parkplatz in meiner Gegend über ein KI-System, das Nummernschilder erkennt, aber trotzdem kommt es zu Diebstählen. Dann kam es zu Kontroversen darüber, wer schuld war. Wer trägt die Verantwortung, der Wohnungseigentümer, der Wachmann oder der Entwickler des KI-Systems?
Seitdem hat das Gebäude seine Regeln geändert und erklärt, dass die Bewohner sich aus praktischen Gründen für die Nutzung einer KI zur Kennzeichenerkennung entscheiden können, sie müssen jedoch die damit verbundenen Risiken akzeptieren. Wer zustimmt, kann die automatische Tür benutzen, wer nicht zustimmt, muss sein Auto auf die alte Art parken. Wir brauchen solche Sanktionen.
In ähnlicher Weise hat IBM einst ein KI-System zur Krebsprävention entwickelt. Wenn das System Medikamente verschreibt, der Patient aber auch nach der Einnahme nicht gerettet werden kann, liegt die Schuld dann beim Arzt oder bei der künstlichen Intelligenz?
Ich denke, dass Sanktionen für KI speziell geregelt werden müssen und dass klar festgelegt werden muss, was bei der Entwicklung von KI-Anwendungen getan werden darf und was nicht. Um die Welt sicherer zu machen, besteht die grundlegendste Sanktion, die wir verhängen können, darin, bei großen Geldtransfers eine biometrische Authentifizierung zu verlangen. In einer solchen Situation können Personen, die ihre Identitätsdaten verlieren, einen Geldverlust vollständig vermeiden.
Vielen Dank, Sir.
[Anzeige_2]
Quelle
Kommentar (0)