Dark AI operiert außerhalb der Sicherheitsnormen und ermöglicht oft Verhaltensweisen wie Betrug, Manipulation, Cyberangriffe oder Data Mining ohne genaue Überwachung.
„Böswillige Akteure nutzen KI auch, um ihre Angriffsmöglichkeiten zu verbessern. Die häufigste Form des KI-Missbrauchs ist heute das Aufkommen von Black-Hat-GPT-Modellen. Dabei handelt es sich um KI-Modelle, die speziell für illegale Zwecke entwickelt oder angepasst wurden, wie zum Beispiel die Erstellung von Malware, das Verfassen von Phishing-E-Mails, die Generierung von Stimmen und Deepfake-Videos…“, sagte Sergey Lozhkin, Leiter des Global Research and Analysis Team (GReAT) für den Nahen Osten, die Türkei, Afrika und den Asien- Pazifik-Raum bei Kaspersky.
Black Hat GPTs können als vollständig private oder halbprivate KI-Modelle existieren. Einige bemerkenswerte Beispiele sind WormGPT, DarkBard, FraudGPT und Xanthorox … alle wurden für die Bekämpfung von Cyberkriminalität, Betrug und bösartiger Automatisierung entwickelt.
Lozhkin gab bekannt, dass die Experten von Kaspersky derzeit einen noch beunruhigenderen Trend beobachten: Von Nationalstaaten oder Regierungen unterstützte Cyberangriffsgruppen beginnen, in ihren Angriffskampagnen große Sprachmodelle (LLMs) einzusetzen.
„OpenAI gab kürzlich bekannt, dass es mehr als 20 verdeckte Einflusskampagnen und Cyberangriffe vereitelt hat, die seine KI-Tools ausnutzten. Wir werden weiterhin immer raffiniertere Angreifer erleben, die KI als Waffe einsetzen und damit sowohl öffentliche als auch private Ökosysteme bedrohen. Dies ist ein besorgniserregender Trend, auf den sich alle Organisationen vorbereiten müssen“, sagte Lozhkin.
Laut dem Bericht von OpenAI nutzen böswillige Akteure mittlerweile die Fähigkeiten großer Machine-Learning-Modelle (LLMs), um Opfer zu täuschen und herkömmliche Sicherheitsebenen zu umgehen. Sie können überzeugende Fake-Nachrichten erstellen, Massennachrichten an Opfer senden und Inhalte in mehreren Sprachen produzieren.
Um die Abwehr von Bedrohungen durch Dark AI zu stärken, empfehlen die Kaspersky-Experten: Einsatz von Sicherheitslösungen der nächsten Generation wie Kaspersky Next, um KI-generierte Malware zu erkennen und Risiken in der Lieferkette zu kontrollieren. Einsatz von Echtzeit-Threat-Intelligence-Tools zur Überwachung KI-gesteuerter Exploits. Stärkung der Zugriffskontrollen und Mitarbeiterschulungen, um Shadow AI und das Risiko von Datenlecks einzuschränken. Einrichtung eines Security Operations Center (SOC), um Bedrohungen zu überwachen und schnell auf Vorfälle zu reagieren.
Quelle: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
Kommentar (0)