Vietnam.vn - Nền tảng quảng bá Việt Nam

Warnung vor Datenlecks, die über ChatGPT auf Google Drive gespeichert sind

(Dan Tri) – Sicherheitsforscher haben gerade eine Schwachstelle in der Connectors-Funktion von OpenAI entdeckt, die es Kriminellen ermöglicht, heimlich Daten aus Google Drive-Konten über ChatGPT zu extrahieren.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Ein infiziertes Dokument kann über ChatGPT Daten auf Google Drive durchsickern lassen (Foto: Wired).

Beunruhigend ist, dass diese Sicherheitslücke keinerlei Eingreifen des Benutzers erfordert. Dies wirft neue Bedenken hinsichtlich der Cybersicherheit im Zusammenhang mit Modellen künstlicher Intelligenz (KI) auf, die zunehmend mit personenbezogenen Daten verknüpft werden.

„Vergiftete“ Dokumente führen zu Datenlecks

Auf der Black Hat-Sicherheitskonferenz in Las Vegas (USA) am 6. August demonstrierten die beiden Experten Michael Bargury und Tamir Ishay Sharbat eine Angriffsmethode namens AgentFlayer .

Dieser Angriff nutzt eine Schwachstelle in Connectors aus – einer Funktion, die ChatGPT mit externen Diensten wie Google Drive, Gmail oder Microsoft Kalender verbindet.

„Der Benutzer muss nichts tun, um gehackt zu werden oder seine Daten zu verlieren. Wir haben bewiesen, dass es völlig ohne Klicks funktioniert“, sagte Michael Bargury, CTO des Sicherheitsunternehmens Zenity.

Der Angriff beginnt damit, dass der Angreifer ein „vergiftetes“ Dokument auf dem Google Drive des Opfers freigibt. Das Dokument enthält eine bösartige Eingabeaufforderung mit etwa 300 Wörtern, geschrieben in weißer Schrift der Größe 1 – für das bloße Auge fast unsichtbar, aber dennoch für den Computer lesbar.

Oberflächlich betrachtet ist der Text als Besprechungsnotiz getarnt. In Wirklichkeit enthält er Anweisungen für ChatGPT, vertrauliche API-Schlüssel aus dem Google Drive-Konto des Opfers zu finden und zu extrahieren.

Anstatt den Inhalt wie vom Benutzer angefordert zusammenzufassen, zwingt diese versteckte Eingabeaufforderung die KI, die gefundenen API-Schlüssel über einen Markdown-Link an einen externen Server zu senden. Die Daten werden als Bild extrahiert, sodass der Server die gesamten Informationen erfassen kann.

OpenAI hat sich damit befasst, aber es bestehen weiterhin Risiken

Nach Erhalt von Bargurys Bericht implementierte OpenAI umgehend Gegenmaßnahmen. „Es ist wichtig, robuste Abwehrmaßnahmen gegen schnelle Malware-Injection-Angriffe zu entwickeln“, sagte Andy Wen, Senior Director of Security Product Management bei Google Workspace.

Obwohl der Vorfall behoben wurde, verdeutlicht er die potenziellen Risiken der Verbindung großer Sprachmodelle (LLMs) mit externen Systemen. Da KI immer stärker in unser Leben und unsere Arbeit integriert wird, vergrößert sich auch die Angriffsfläche, die Hacker ausnutzen können.

Experten warnen, dass die indirekte sofortige Injektion zu einer ernsthaften Bedrohung werden kann, da sie es Angreifern ermöglicht, die Kontrolle über viele intelligente Systeme zu übernehmen, vom Smart Home bis zur Unternehmensinfrastruktur.

„Die Verbindung von LLM mit externen Datenquellen ist leistungsstark, aber wie so oft bei KI gilt auch hier: Mehr Leistung bringt mehr Risiken mit sich“, so Bargury abschließend.

Quelle: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Etikett: OPENAI

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Verloren auf der Wolkenjagd in Ta Xua
Am Himmel von Son La gibt es einen Hügel aus lila Sim-Blumen
Laterne – Ein Mittherbstfest-Geschenk zur Erinnerung
Tò he – vom Kindheitsgeschenk zum Millionen-Kunstwerk

Gleicher Autor

Erbe

;

Figur

;

Geschäft

;

No videos available

Aktuelle Veranstaltungen

;

Politisches System

;

Lokal

;

Produkt

;