Vietnam.vn - Nền tảng quảng bá Việt Nam

Die Gefahr, dass Kriminelle im Besitz von „dunkler KI“ sind

KI-Tools, die speziell für Cyberangriffe trainiert wurden, werden immer effektiver, wodurch ihre Bekämpfung immer komplexer wird.

ZNewsZNews05/08/2025

Künstliche Intelligenz entwickelt sich zu einem mächtigen Helfer für Cyberkriminelle. Foto: Cato Networks .

Nicht nur normale Nutzer, sondern auch Cyberkriminelle setzen KI zunehmend ein, um immer ausgefeiltere Angriffe zu entwickeln. In weniger als zwei Jahren haben sich KI-Tools zur Unterstützung von Hackern hinsichtlich ihrer Funktionen und Effizienz rasant weiterentwickelt.

Adrian Hia, Direktor von Kaspersky Asien und Japan (APJ), erklärte, dass Dark AI eine entscheidende Rolle beim rasanten Anstieg von Malware spielt. Daten von Kaspersky zeigen, dass täglich fast eine halbe Million Malware-Dateien erstellt werden.

„Dark AI ist wie das Darknet – die dunkle Seite des Internets, die wir jeden Tag nutzen“, sagte Herr Hia.

Sergey Lozhkin, Leiter des globalen Forschungs- und Analyseteams (GReAT) von Kaspersky für Asien- Pazifik (APAC) und den Nahen Osten, Afrika und die Türkei (META), sagte, dass Dark AI sich grundlegend von herkömmlichen KI-Chatbots wie ChatGPT oder Gemini unterscheidet.

Die KI, mit der die Nutzer vertraut sind, wurde entwickelt, um die Nutzer zu unterstützen und legitime Aufgaben auszuführen. Selbst wenn sie den Befehl erhalten, Schadsoftware zu erstellen oder illegale Aktivitäten durchzuführen, werden die Nutzer Schwierigkeiten haben, ihre Ziele zu erreichen.

„Dark AI ist in Wirklichkeit LLM oder Chatbots, die ausschließlich für schädliche Aktivitäten im Cyberspace entwickelt wurden“, erklärte Herr Lozhkin. Diese KIs werden darauf trainiert, Schadsoftware, Phishing-Inhalte oder sogar komplette Systeme für Cyberkriminelle zu erstellen, die diese für Betrugszwecke nutzen können.

Verstecktes KI-System nur für seriöse Hacker

Diese Systeme, die Herr Lozhkin als Black Hat GPT oder „Black Hat GPT“ bezeichnet, existieren seit 2023. Vertreter von Kaspersky sagten, dass die KI zu diesem Zeitpunkt sehr rudimentär war, sehr schlechten Code erzeugte und sofort erkannt werden konnte.

In letzter Zeit sind Black-Hat-GPT-Systeme jedoch deutlich komplexer geworden und bieten zahlreiche Funktionen, von der Erstellung von Schadsoftware und gefälschten Inhalten bis hin zur Imitation von Stimmen und Videos . Beispiele hierfür sind WormGPT, DarkBard oder FraudGPT.

AI toi pham mang,  tan cong mang AI,  an ninh mang AI,  Dark AI,  rui ro AI,  bao mat AI anh 1

Sergey Lozhkin, Forscher bei Kaspersky, warnt davor, dass die Qualität von Dark AI immer besser wird. Foto: Minh Khoi.

Eine der beunruhigendsten Entdeckungen von Kaspersky war die Existenz privater Dark-AI-Systeme, die nur seriösen Cyberkriminellen zugänglich sind. Um Zugang zu diesen Systemen zu erhalten, müssen sich Hacker in Untergrundforen einen Namen machen.

„Auf solche Systeme kann man nur zugreifen, wenn man vertrauenswürdig ist. Man muss sich in Untergrundforen einen Namen machen, um Zugang zu diesen Assistenten zu erhalten“, sagte ein Kaspersky-Experte.

Lozhkin erklärte, Kaspersky verfüge über eine Einheit für „Digital Footprint Intelligence“, die jahrelang Untergrundforen infiltriert und deren Aktivitäten überwacht und verfolgt. Sobald das Unternehmen Zugriff auf neue Systeme erlangt habe, investiere es weiterhin viel Zeit, um zu verstehen, wie Dark AI eingesetzt wird, welche Funktionen sie erfüllt und wie effektiv sie ist.

Dunkle KI wird immer stärker

Dunkle KI entwickelt sich zu einem effektiven Werkzeug für versierte Hacker. Wer nur über grundlegende Programmierkenntnisse verfügt und einen Ransomware-Generator beauftragt, erzeugt möglicherweise lediglich Software, die von Antivirenprogrammen leicht erkannt wird. Erfahrene Hacker hingegen können mit dunkler KI ihre Programmierproduktivität steigern und neue Schadsoftware entwickeln.

„Diese Qualität hängt stark von der jeweiligen Plattform oder Dark AI ab. Manche erzeugen Code von sehr geringer Qualität, aber es gibt auch Tools, die 7-8 von 10 Punkten erreichen können“, teilte Herr Lozhkin Tri Thuc - Znews mit.

Ein Beispiel dafür ist die Fähigkeit, polymorphen Code zu erstellen. Früher mussten Hacker, sobald ein Schadcode von einem Antivirenprogramm erkannt wurde, viel Zeit investieren, um den Code zu ändern. Dark AI kann dies nun nahezu augenblicklich tun und so eine schwerer erkennbare Version erzeugen.

Zudem überwinden sogenannte Dark LLMs die Sprachbarriere bei Phishing-Angriffen. Kaspersky-Experten erklären, dass die neue Generation von Phishing-E-Mails aufgrund ihres nahezu perfekten Englisch schwerer zu erkennen ist; sie können sogar „exakt wie die Stimme des CEOs klingen“.

AI toi pham mang,  tan cong mang AI,  an ninh mang AI,  Dark AI,  rui ro AI,  bao mat AI anh 2

Manche „All-in-One“-Systeme für dunkle KI können Code generieren, Stimmen imitieren und Phishing-E-Mails versenden. Foto: Kaspersky.

Die Fähigkeit des spezialisierten Dark-AI-Systems, gefälschte Stimmen und Bilder zu erzeugen, wird immer perfekter. Herr Lozhkin sagte sogar, dass er aufgrund seiner Erfahrungen als Sicherheitsmitarbeiter „Videoanrufen nicht mehr glaubt“.

Experten von Kaspersky wiesen jedoch auch darauf hin, dass Nutzer Betrugsanrufe weiterhin anhand des persönlichen Verhaltens, der Sprechgewohnheiten und einiger einzigartiger Merkmale erkennen können.

„Diese Merkmale lassen sich nur schwer fälschen. Versuchen Sie daher, die Person, von der Sie glauben, dass sie gefälscht wird, direkt zu kontaktieren“, sagte der Sicherheitsforscher gegenüber Tri Thuc – Znews .

„KI-Wettrüsten“

Die Entwicklung von Dark AI hat einen technologischen Wettlauf zwischen Cyberkriminellen und Cybersicherheitsexperten ausgelöst. „Ich persönlich nutze KI mittlerweile für alles – Forschung, Programmierung, Reverse Engineering. Meine Produktivität ist dieses Jahr 10- bis 20-mal höher als zuvor“, gibt Lozhkin zu.

„Wenn man keine KI zur Verteidigung einsetzt, während die Bösen KI zum Angriff nutzen, wird man verlieren. Dies ist der Beginn eines Wettlaufs zwischen Gut und Böse, die beide KI einsetzen“, warnte er.

AI toi pham mang,  tan cong mang AI,  an ninh mang AI,  Dark AI,  rui ro AI,  bao mat AI anh 3

Adrian Hia, Direktor von Kaspersky APJ, erklärte, dass Dark AI die Entwicklung von Malware beschleunigt. Foto: Minh Khoi.

Google meldete die Blockierung von über 20 schädlichen Aktivitäten staatlich geförderter Gruppen, die versuchten, ChatGPT zur Erstellung von Schadsoftware und zur Planung von Angriffen zu nutzen. Im Jahr 2024 identifizierte Google mithilfe von KI-Modellen 40 staatlich unterstützte APT-Gruppen.

Besonders besorgniserregend sind ausgereifte Frameworks wie Xanthorox, das einen „Komplettpaket“-Service für 200 Dollar pro Monat anbietet und Sprachgenerierung, Phishing-E-Mails und andere Angriffswerkzeuge in eine benutzerfreundliche Oberfläche integriert.

Kaspersky-Experten warnen davor, dass Dark AI noch in den Kinderschuhen steckt. Adrian Hia prognostiziert, dass die Nutzungskosten in den nächsten Jahren deutlich sinken werden, und es ist noch nicht absehbar, wie weit die Entwicklung fortschreiten wird.

„Aber ich bin mir absolut sicher, dass wir bereit sein werden, denn wir tun das Gleiche, nur von der anderen Seite“, kommentierte Herr Lozhkin.

Quelle: https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html


Kommentar (0)

No data
No data

Erbe

Figur

Geschäft

Verloren im Feenmooswald auf dem Weg zur Eroberung von Phu Sa Phin

Aktuelle Ereignisse

Politisches System

Lokal

Produkt