Hacker greifen Microsoft 365 Copilot an. Foto: Bloomberg . |
In Microsoft 365 Copilot, dem KI-Assistenten, der in Office-Anwendungen wie Word, Excel, Outlook, PowerPoint und Teams integriert ist, wurde eine schwerwiegende Sicherheitslücke entdeckt. Die vom Cybersicherheitsunternehmen Aim Security veröffentlichte Entdeckung weckt Bedenken hinsichtlich Angriffen auf KI-Agenten.
Die von Aim Security als EchoLeak bezeichnete Sicherheitslücke ermöglicht Angreifern den Zugriff auf kritische Daten ohne Benutzereingriff. Es handelt sich um den ersten bekannten „Zero-Click“-Angriff auf einen KI-Agenten, ein System, das mithilfe eines großen Sprachmodells (LLM) Aufgaben automatisch ausführt.
KI-Agenten in Sicht
Im Fall von Microsoft Copilot würde ein Angreifer lediglich eine E-Mail mit einem versteckten Link an einen Benutzer senden. Da Copilot E-Mails automatisch im Hintergrund scannt, liest und führt es diese Befehle aus, ohne dass der Empfänger eingreifen muss. Dadurch kann die KI manipuliert werden, um auf Dokumente, Tabellen und interne Nachrichten zuzugreifen, diese zu exfiltrieren und die Daten an den Hacker weiterzuleiten.
„Wir danken Aim Security für die verantwortungsvolle Identifizierung und Meldung dieses Problems, sodass es behoben werden konnte, bevor Kunden betroffen waren. Produktupdates wurden bereitgestellt, und von den Benutzern besteht kein Handlungsbedarf“, bestätigte ein Microsoft-Sprecher gegenüber Fortune.
![]() |
Aim Security warnt, dass Hacker versuchen, Microsoft 365 Copilot auszunutzen. Foto: Bloomberg . |
Laut Aim Security liegt das Problem jedoch tiefer im zugrunde liegenden Design der KI-Agenten. Adir Gruss, Mitbegründer und CTO von Aim Security, sagte, die EchoLeak-Sicherheitslücke sei ein Zeichen dafür, dass aktuelle KI-Systeme Sicherheitsfehler aus der Vergangenheit wiederholen.
„Wir haben eine Reihe von Schwachstellen gefunden, die es einem Angreifer ermöglichten, das Äquivalent eines Zero-Click-Angriffs auf ein Telefon durchzuführen, diesmal jedoch gegen ein KI-System“, sagte Gruss. Er sagte, das Team habe etwa drei Monate damit verbracht, Microsoft Copilot zu analysieren und zurückzuentwickeln, um herauszufinden, wie die KI manipuliert werden könnte.
Obwohl Microsoft reagierte und einen Patch bereitstellte, sagte Gruss, die fünfmonatige Behebung sei „für die Schwere des Problems eine lange Zeit“. Er erklärte, dies liege zum Teil daran, dass das Konzept der Schwachstelle neuartig sei und die Entwicklungsteams von Microsoft viel Zeit benötigten, um die Schwachstelle zu identifizieren und entsprechende Maßnahmen zu ergreifen.
Die Geschichte wiederholt sich?
Laut Gruss betrifft EchoLeak nicht nur Copilot, sondern kann auch auf ähnliche Plattformen wie Agentforce (Salesforce) oder das MCP-Protokoll von Anthropic angewendet werden.
„Wenn ich ein Unternehmen leiten würde, das einen KI-Agenten einsetzt, wäre ich entsetzt. Diese Art von Konstruktionsfehler hat der Technologiebranche jahrzehntelang Schaden zugefügt, und jetzt rächt er sich mit der KI“, sagte Gruss.
![]() |
Microsoft hat Maßnahmen ergriffen, um die Sicherheitslücke in Copilot zu beheben. Foto: Bloomberg . |
Die Hauptursache dieses Problems liegt darin, dass aktuelle KI-Agenten nicht zwischen vertrauenswürdigen und nicht vertrauenswürdigen Daten unterscheiden können. Gruss ist überzeugt, dass die langfristige Lösung darin besteht, die Art und Weise, wie KI-Agenten entwickelt werden, grundlegend zu überarbeiten und sie in die Lage zu versetzen, klar zwischen gültigen Daten und gefährlichen Informationen zu unterscheiden.
Aim Security bietet derzeit vorübergehende Abhilfemaßnahmen für einige Kunden an, die KI-Agenten einsetzen. Dies ist jedoch nur eine vorübergehende Lösung. Eine Neugestaltung des Systems kann die Informationssicherheit der Benutzer gewährleisten.
„Jedes Fortune 500-Unternehmen, das ich kenne, hat Angst davor, KI-Agenten in der Produktion einzusetzen. Sie experimentieren zwar, aber Schwachstellen wie diese bereiten ihnen schlaflose Nächte und bremsen Innovationen“, sagte der CTO von Aim Security.
Quelle: https://znews.vn/tac-nhan-ai-dau-tien-bi-tan-cong-post1560190.html
Kommentar (0)