Dunkle KI operiert außerhalb von Sicherheitsstandards und ermöglicht oft Verhaltensweisen wie Betrug, Manipulation, Cyberangriffe oder Datenausbeutung ohne genaue Überwachung.
„Auch Cyberkriminelle nutzen KI, um ihre Angriffsfähigkeiten zu verbessern. Der häufigste Missbrauch von KI ist derzeit das Aufkommen von Black-Hat-GPT-Modellen. Dabei handelt es sich um KI-Modelle, die speziell für illegale Zwecke entwickelt oder modifiziert wurden, beispielsweise zur Erstellung von Schadsoftware, zum Verfassen von Phishing-E-Mails sowie zur Generierung von Sprach- und Deepfake-Videos“, erklärte Sergey Lozhkin, Leiter des Global Research and Analysis Team (GReAT) für den Nahen Osten, die Türkei, Afrika und den asiatisch -pazifischen Raum bei Kaspersky.
Black-Hat-GPTs können als vollständig private oder halbprivate KI-Modelle existieren. Zu den bekanntesten Beispielen gehören WormGPT, DarkBard, FraudGPT und Xanthorox, die allesamt für Cyberkriminalität, Betrug und bösartige Automatisierungsaktivitäten entwickelt wurden.
Lozhkin enthüllte, dass die Experten von Kaspersky nun einen noch besorgniserregenderen Trend beobachten: Staatlich oder behördlich unterstützte Cyberangriffsgruppen beginnen, große Sprachmodelle (LLMs) in ihren Angriffskampagnen einzusetzen.
„OpenAI gab kürzlich bekannt, mehr als 20 verdeckte Einflusskampagnen und Cyberangriffe abgewehrt zu haben, die seine KI-Tools ausnutzten. Wir werden uns zunehmend raffinierten Angreifern stellen müssen, die KI als Waffe einsetzen und damit sowohl im öffentlichen als auch im privaten Sektor eine Bedrohung darstellen. Dies ist eine besorgniserregende Entwicklung, auf die sich alle Organisationen vorbereiten müssen“, so Lozhkin.
Laut einem Bericht von OpenAI nutzen Angreifer zunehmend die Leistungsfähigkeit von groß angelegten Modellen des maschinellen Lernens (LLMs), um Opfer zu täuschen und herkömmliche Sicherheitsvorkehrungen zu umgehen. Sie können überzeugende gefälschte Nachrichten erstellen, Massennachrichten an Opfer versenden und Inhalte in mehreren Sprachen produzieren.
Zur Verbesserung der Abwehr gegen Dark-AI-Bedrohungen empfehlen die Experten von Kaspersky: die Nutzung von Sicherheitslösungen der nächsten Generation wie Kaspersky Next zur Erkennung KI-generierter Malware und zur Kontrolle von Lieferkettenrisiken; die Anwendung von Echtzeit-Bedrohungsanalysetools zur Überwachung der Ausnutzung von KI-gesteuerten Schwachstellen; die Stärkung der Zugriffskontrolle und die Schulung der Mitarbeiter, um die Risiken von Schatten-KI und Datenlecks zu begrenzen; und die Einrichtung eines Security Operations Center (SOC) zur Überwachung von Bedrohungen und zur schnellen Reaktion auf Vorfälle.
Quelle: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)