Google steht in der Kritik, weil es sich weigert, eine schwerwiegende Sicherheitslücke in Gemini zu beheben, einem Tool für künstliche Intelligenz (KI), das tief in das Google Workspace-Ökosystem integriert ist. Laut Sicherheitsexperten könnte der Fehler dazu führen, dass sensible Nutzerinformationen durch einen Angriff namens „ASCII-Schmuggel“ an Fremde weitergegeben werden.

Gemini anfällig für im Text versteckten Code
Der Sicherheitsforscher Viktor Markopoulos testete mehrere gängige Large Language Models (LLMs) auf ihre Widerstandsfähigkeit gegen diesen Angriff. Die Ergebnisse zeigten, dass Gemini, DeepSeek und Grok alle anfällig waren, während ChatGPT, Claude und Copilot besser geschützt waren.
ASCII-Schmuggel ist eine Angriffsform, bei der ein Angreifer eine Eingabeaufforderung oder einen Befehlscode in Text versteckt, oft in extrem kleiner Größe oder speziell codiert. Wenn ein Benutzer eine KI auffordert, den Inhalt mit diesem versteckten Code zusammenzufassen oder zu analysieren, liest das KI-Tool versehentlich die bösartige Eingabeaufforderung und führt sie aus, ohne dass der Benutzer es merkt.

Gemini 3 erregt vor der Veröffentlichung Aufmerksamkeit
Risiko eines Verlusts sensibler Daten in Google Workspace
Da Gemini direkt in die Dienste Gmail, Docs und Google Workspace integriert ist, ist dieses Risiko besonders besorgniserregend: Eine versteckte Eingabeaufforderung könnte dazu führen, dass die KI automatisch nach persönlichen Informationen, Kontaktdaten oder vertraulichen Dokumenten sucht und diese dann ohne Wissen des Benutzers aus dem System sendet.
Markopoulos kontaktierte Google, um seine Ergebnisse vorzustellen. Er illustrierte dies sogar mit einem unsichtbaren Code, der Gemini dazu veranlasste, einen Link zu einer bösartigen Website zu teilen, nur um „ein Telefon mit Rabatt einzulösen“.
Google bestreitet, dass es sich um eine Sicherheitslücke handelt
In einer veröffentlichten Antwort erklärte Google, dass es sich hierbei nicht um eine Sicherheitslücke, sondern um eine Form von Social-Engineering-Angriff handele. Anders ausgedrückt: Das Unternehmen betrachtete den Fehler als Folge unvorsichtiger Benutzerinteraktion und nicht als Problem seines KI-Systems.
Diese Antwort lässt darauf schließen, dass Google in naher Zukunft keine Pläne hat, einen Patch für Gemini zu veröffentlichen. Das bedeutet, dass Benutzer bei der Verwendung von KI zur Verarbeitung von Dokumenten vorsichtiger sein sollten, insbesondere wenn diese vertrauliche Informationen enthalten oder aus nicht verifizierten Quellen stammen.
Wachsende Bedenken hinsichtlich der Sicherheit tief integrierter KI
Der Vorfall wirft Fragen zur Verantwortung von Technologieunternehmen auf, da KI zunehmend in Arbeits- und Kommunikationsplattformen integriert wird. Google betont zwar sein Engagement für die „Sicherheit der Nutzer“, doch die Entscheidung könnte das Vertrauen in die Sicherheit von Gemini beeinträchtigen – insbesondere im Unternehmensumfeld.
Laut Android Authority
Quelle: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Kommentar (0)