Google møter kritikk etter å ha nektet å fikse en alvorlig sårbarhet i Gemini, et verktøy for kunstig intelligens (KI) som er dypt integrert i Google Workspace-økosystemet. Ifølge sikkerhetseksperter kan feilen føre til at sensitiv brukerinformasjon lekkes til fremmede gjennom et angrep kalt «ASCII-smugling».

Tvillingene er sårbare for kode skjult i tekst
Sikkerhetsforsker Viktor Markopoulos testet flere populære store språkmodeller (LLM-er) for å se om de er motstandsdyktige mot dette angrepet. Resultatene viste at Gemini, DeepSeek og Grok alle var sårbare, mens ChatGPT, Claude og Copilot var bedre beskyttet.
ASCII-smugling er en form for angrep der en angriper skjuler en ledetekst eller kommandokode i tekst, ofte i ekstremt liten størrelse eller spesialkodet. Når en bruker ber en AI om å oppsummere eller analysere innholdet som inneholder denne skjulte koden, vil AI-verktøyet ved et uhell lese og kjøre den ondsinnede ledeteksten uten at brukeren vet det.

Gemini 3 vekker oppmerksomhet før utgivelse
Risiko for lekkasje av sensitive data i Google Workspace
Siden Gemini er direkte integrert i Gmail-, Docs- og Google Workspace-tjenester, blir denne risikoen spesielt bekymringsfull: En skjult ledetekst kan føre til at AI-en automatisk søker etter personlig informasjon, kontaktdata eller konfidensielle dokumenter, og deretter sender dem ut av systemet uten at brukeren vet det.
Markopoulos kontaktet Google for å presentere funnene sine, og illustrerte det til og med med en usynlig kodebit som fikk Gemini til å dele en lenke til et ondsinnet nettsted bare for å «løse inn en telefon til rabattert pris».
Google benekter at dette er en sikkerhetsfeil
I et publisert svar sa Google at dette ikke var en sikkerhetsbrist, men en form for sosial manipulering. Med andre ord anså selskapet dette som en feil forårsaket av uforsiktig brukerinteraksjon, ikke et problem med AI-systemet deres.
Dette svaret antyder at Google ikke har noen planer om å gi ut en oppdatering for Gemini i nær fremtid, noe som betyr at brukere bør være mer forsiktige når de bruker AI til å behandle dokumenter, spesielt de som inneholder sensitiv informasjon eller kommer fra ubekreftede kilder.
Økende bekymringer om sikkerheten til dypt integrert AI
Hendelsen reiser spørsmål om teknologiselskapenes ansvar ettersom AI i økende grad blir integrert i arbeids- og kommunikasjonsplattformer. Selv om Google har lagt vekt på sin forpliktelse til «brukersikkerhet», kan avgjørelsen påvirke tilliten til Gemini sin sikkerhet – spesielt i bedriftsmiljøet.
Ifølge Android Authority
Kilde: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Kommentar (0)