Vietnam.vn - Nền tảng quảng bá Việt Nam

Hacker greifen die KI von Microsoft an, um Benutzerpasswörter zu stehlen

Der KI-Assistent Microsoft Copilot kann vertrauliche Daten automatisch und ohne Benutzereingriff offenlegen.

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống13/06/2025

Mit nur einer scheinbar harmlosen E-Mail kann der KI-Assistent Microsoft Copilot vertrauliche Daten automatisch und ohne Benutzereingriff offen legen.

In Microsoft 365 Copilot, dem in Office-Anwendungen wie Word, Excel, Outlook, PowerPoint und Teams integrierten KI-Assistenten, wurde eine schwerwiegende Sicherheitslücke entdeckt. Die vom Cybersicherheitsunternehmen Aim Security veröffentlichte Entdeckung gibt Anlass zur Sorge über Angriffe auf KI-Agenten.

Hacker müssen den Benutzern lediglich eine E-Mail mit einem Link senden. Copilot führt sich selbst aus, ohne dass der Benutzer die E-Mail öffnen muss.

Die von Aim Security als EchoLeak bezeichnete Sicherheitslücke ermöglicht Angreifern den Zugriff auf kritische Daten ohne Benutzereingriff. Es handelt sich um den ersten bekannten „Zero-Click“-Angriff auf einen KI-Agenten, ein System, das mithilfe eines großen Sprachmodells (LLM) Aufgaben automatisch ausführt.

Der erste Angriff auf die KI

Im Fall von Microsoft Copilot würde ein Angreifer lediglich eine E-Mail mit einem versteckten Link an einen Benutzer senden. Da Copilot E-Mails automatisch im Hintergrund scannt, liest und führt es diese Befehle aus, ohne dass eine Interaktion des Empfängers erforderlich ist. Dadurch kann die KI manipuliert werden, um auf Dokumente, Tabellenkalkulationen und interne Nachrichten zuzugreifen, diese zu exfiltrieren und die Daten an den Hacker weiterzuleiten.

„Wir danken Aim Security für die verantwortungsvolle Identifizierung und Meldung dieses Problems, sodass es behoben werden konnte, bevor Kunden betroffen waren. Produktupdates wurden bereitgestellt, und von den Benutzern besteht kein Handlungsbedarf“, bestätigte ein Microsoft-Sprecher gegenüber Fortune.

Tin tặc đang tìm cách khai thác AI Microsoft 365 Copilot. Ảnh: Bloomberg.
Hacker wollen die KI von Microsoft 365 Copilot ausnutzen. Foto: Bloomberg.

Laut Aim Security liegt das Problem jedoch tiefer im zugrunde liegenden Design der KI-Agenten. Adir Gruss, Mitbegründer und CTO von Aim Security, sagte, die EchoLeak-Sicherheitslücke sei ein Zeichen dafür, dass aktuelle KI-Systeme Sicherheitsfehler aus der Vergangenheit wiederholen.

„Wir haben eine Reihe von Schwachstellen gefunden, die es einem Angreifer ermöglichten, das Äquivalent eines Zero-Click-Angriffs auf ein Telefon durchzuführen, diesmal jedoch gegen ein KI-System“, sagte Gruss. Er sagte, das Team habe etwa drei Monate damit verbracht, Microsoft Copilot zu analysieren und zurückzuentwickeln, um herauszufinden, wie die KI manipuliert werden könnte.

Obwohl Microsoft reagierte und einen Patch bereitstellte, sagte Gruss, die fünfmonatige Behebung sei „für die Schwere des Problems eine lange Zeit“. Er erklärte, dies liege zum Teil daran, dass das Konzept der Schwachstelle neuartig sei und die Entwicklungsteams von Microsoft viel Zeit benötigten, um die Schwachstelle zu identifizieren und entsprechende Maßnahmen zu ergreifen.

Historische Konstruktionsfehler tauchen wieder auf und bedrohen die gesamte Technologiebranche

Laut Gruss betrifft EchoLeak nicht nur Copilot, sondern kann auch auf ähnliche Plattformen wie Agentforce (Salesforce) oder das MCP-Protokoll von Anthropic angewendet werden.

„Wenn ich ein Unternehmen leiten würde, das einen KI-Agenten einsetzt, wäre ich entsetzt. Diese Art von Konstruktionsfehler hat der Technologiebranche jahrzehntelang Schaden zugefügt, und jetzt rächt er sich mit der KI“, sagte Gruss.

Microsoft đã triển khai biện pháp để khắc phục lỗ hổng trên Copilot. Ảnh: Bloomberg.
Microsoft hat Maßnahmen ergriffen, um die Sicherheitslücke in Copilot zu beheben. Foto: Bloomberg.

Die Hauptursache dieses Problems liegt darin, dass aktuelle KI-Agenten nicht zwischen vertrauenswürdigen und nicht vertrauenswürdigen Daten unterscheiden können. Gruss ist überzeugt, dass die langfristige Lösung darin besteht, die Art und Weise, wie KI-Agenten entwickelt werden, grundlegend zu überarbeiten und sie in die Lage zu versetzen, klar zwischen gültigen Daten und gefährlichen Informationen zu unterscheiden.

Aim Security bietet derzeit vorübergehende Abhilfemaßnahmen für einige Kunden an, die KI-Agenten einsetzen. Dies ist jedoch nur eine vorübergehende Lösung. Eine Neugestaltung des Systems kann die Informationssicherheit der Benutzer gewährleisten.

„Jedes Fortune 500-Unternehmen, das ich kenne, hat Angst davor, KI-Agenten in der Produktion einzusetzen. Sie experimentieren zwar, aber Schwachstellen wie diese bereiten ihnen schlaflose Nächte und bremsen Innovationen“, sagte der CTO von Aim Security.

Die mysteriösen Hacker in Roblox
Piepsender Computer.
Link zum Originalartikel Link kopieren
https://www.bleepingcomputer.com/news/security/zero-click-ai-data-leak-flaw-uncovered-in-microsoft-365-copilot/

Quelle: https://khoahocdoisong.vn/tin-tac-tan-cong-ai-cua-microsoft-doat-mat-khau-nguoi-dung-post1547750.html


Kommentar (0)

No data
No data

Gleiche Kategorie

Entdecken Sie den Herstellungsprozess des teuersten Lotustees in Hanoi
Bewundern Sie die einzigartige Pagode aus über 30 Tonnen Keramikstücken in Ho-Chi-Minh-Stadt
Dorf auf dem Berggipfel in Yen Bai: Schwebende Wolken, schön wie ein Märchenland
Dorf versteckt im Tal in Thanh Hoa zieht Touristen an, um zu erleben

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt