Dunkle KI agiert außerhalb von Sicherheitsnormen und ermöglicht oft Verhaltensweisen wie Betrug, Manipulation, Cyberangriffe oder Data-Mining ohne genaue Überwachung.
„Auch Cyberkriminelle nutzen KI, um ihre Angriffsfähigkeiten zu verbessern. Der häufigste Missbrauch von KI ist derzeit das Aufkommen von Black-Hat-GPT-Modellen. Dabei handelt es sich um KI-Modelle, die speziell für illegale Zwecke entwickelt oder angepasst wurden, beispielsweise zur Erstellung von Schadsoftware, Phishing-E-Mails, Sprachausgabe und Deepfake-Videos“, so Sergey Lozhkin, Leiter des Global Research and Analysis Team (GReAT) bei Kaspersky, zuständig für den Nahen Osten, die Türkei, Afrika und den asiatisch- pazifischen Raum .
Black-Hat-GPTs können als vollständig private oder halbprivate KI-Modelle existieren. Zu den bekanntesten Beispielen gehören WormGPT, DarkBard, FraudGPT und Xanthorox – allesamt entwickelt für Cyberkriminalität, Betrug und bösartige Automatisierung.
Herr Lozhkin enthüllte, dass die Experten von Kaspersky nun einen noch besorgniserregenderen Trend beobachten: Nationalstaaten oder von Regierungen unterstützte Cyberangriffsgruppen beginnen, große Sprachmodelle (LLMs) in ihren Angriffskampagnen einzusetzen.
„OpenAI gab kürzlich bekannt, mehr als 20 verdeckte Einflusskampagnen und Cyberangriffe, die seine KI-Tools ausnutzten, vereitelt zu haben. Wir werden zunehmend raffinierte Angreifer erleben, die KI als Waffe einsetzen und damit sowohl öffentliche als auch private Systeme bedrohen. Dies ist eine besorgniserregende Entwicklung, auf die sich alle Organisationen vorbereiten müssen“, sagte Lozhkin.
Laut einem Bericht von OpenAI nutzen Angreifer zunehmend die Leistungsfähigkeit großer Modelle des maschinellen Lernens (LLMs), um Opfer zu täuschen und herkömmliche Sicherheitsvorkehrungen zu umgehen. Sie können überzeugende gefälschte Nachrichten erstellen, diese massenhaft an Opfer versenden und Inhalte in mehreren Sprachen produzieren.
Um die Abwehr gegen Dark-AI-Bedrohungen zu stärken, empfehlen die Experten von Kaspersky Folgendes: Einsatz von Sicherheitslösungen der nächsten Generation wie Kaspersky Next zur Erkennung KI-generierter Malware und zur Kontrolle von Risiken in der Lieferkette. Anwendung von Echtzeit-Tools zur Bedrohungsanalyse, um KI-gesteuerte Angriffe zu überwachen. Verstärkung der Zugriffskontrollen und Mitarbeiterschulungen, um Schatten-KI und das Risiko von Datenlecks einzudämmen. Einrichtung eines Security Operations Center (SOC) zur Überwachung von Bedrohungen und zur schnellen Reaktion auf Vorfälle.
Quelle: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)