Google möter kritik efter att ha vägrat att åtgärda en allvarlig sårbarhet i Gemini, ett verktyg för artificiell intelligens (AI) som är djupt integrerat i Google Workspace-ekosystemet. Enligt säkerhetsexperter kan buggen leda till att känslig användarinformation läcks ut till främlingar genom en attack som kallas "ASCII-smuggling".

Gemini sårbar för kod dold i text
Säkerhetsforskaren Viktor Markopoulos testade flera populära stora språkmodeller (LLM) för att kontrollera deras motståndskraft mot denna attack. Resultaten visade att Gemini, DeepSeek och Grok alla var sårbara, medan ChatGPT, Claude och Copilot var bättre skyddade.
ASCII-smuggling är en form av attack där en angripare döljer en prompt- eller kommandokod i text, ofta i extremt liten storlek eller specialkodad. När en användare ber en AI att sammanfatta eller analysera innehållet som innehåller denna dolda kod, kommer AI-verktyget av misstag att läsa och köra den skadliga prompten utan att användaren vet om det.

Gemini 3 drar till sig uppmärksamhet innan lansering
Risk för läckage av känsliga data i Google Workspace
Med Gemini direkt integrerat i Gmail-, Docs- och Google Workspace-tjänster blir denna risk särskilt oroande: En dold prompt kan få AI:n att automatiskt söka efter personlig information, kontaktuppgifter eller konfidentiella dokument och sedan skicka ut dem ur systemet utan att användaren vet om det.
Markopoulos kontaktade Google för att presentera sina resultat, och illustrerade det till och med med en osynlig kodbit som fick Gemini att dela en länk till en skadlig webbplats bara för att "lösa in en rabatterad telefon".
Google förnekar att detta är en säkerhetsbrist
I ett publicerat svar sa Google att detta inte var en säkerhetsbrist, utan en form av social engineering-attack. Med andra ord ansåg företaget att detta var en bugg orsakad av slarvig användarinteraktion, inte ett problem med deras AI-system.
Detta svar antyder att Google inte har några planer på att släppa en patch för Gemini inom en snar framtid, vilket innebär att användare bör vara mer försiktiga när de använder AI för att bearbeta dokument, särskilt de som innehåller känslig information eller kommer från overifierade källor.
Växande oro kring säkerheten hos djupt integrerad AI
Händelsen väcker frågor om teknikföretagens ansvar i takt med att AI blir alltmer integrerat i arbets- och kommunikationsplattformar. Även om Google har betonat sitt engagemang för "användarsäkerhet" kan beslutet påverka förtroendet för Gemini:s säkerhet – särskilt i företagsmiljön.
Enligt Android Authority
Källa: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Kommentar (0)