DockerDash-sikkerhetssårbarheten er en kritisk Meta-Context Injection-feil som påvirker Ask Gordon AI-assistenten i Docker Desktop og Docker CLI. Denne sårbarheten lar angripere kjøre uautorisert kode og stjele sensitive data gjennom Docker-bildemetadata uten autentisering.
Forskere ved Noma Labs oppdaget denne sårbarheten, og Docker ga offisielt ut en oppdatering i versjon 4.50.0 i november 2025.

Utnyttelsesmekanisme via metakontekstinjeksjon
Ifølge Noma Security ligger roten til DockerDash i Ask Gordons behandling av ubekreftede metadata som gyldige kommandoer. En angriper kan lage et Docker-bilde som inneholder ondsinnede kommandoer innebygd i LABEL- feltet i en Dockerfile. Når en bruker spør Ask Gordon om dette bildet, analyserer og tolker AI-en det ondsinnede direktivet som en vanlig kontrollkommando.
Ask Gordon videresender deretter dette innholdet til MCP Gateway (Model Context Protocol). Fordi Gateway ikke kan skille mellom beskrivende etiketter og interne kommandoer, kjører den koden gjennom MCP-verktøyene med brukerens administratorrettigheter uten å kreve noen ekstra autentiseringstrinn.
Risikoer for kodekjøring og systemdatalekkasjer.
DockerDash-angrepet er spesielt farlig fordi det utnytter Dockers eksisterende arkitektur. I tillegg til ekstern kodekjøring kan angripere utnytte AI-assistenter til å samle inn sensitive data i Docker Desktop-miljøet. Den eksponerte informasjonen kan inkludere containerdetaljer, systemkonfigurasjoner, monterte kataloger og intern nettverksarkitektur.
Det er verdt å merke seg at versjon 4.50.0 ikke bare oppdaterer DockerDash, men også fikser et annet sikkerhetsproblem med rask injeksjon som ble oppdaget av Pillar Security. Dette sikkerhetsproblemet tillot tidligere angripere å få kontroll over AI gjennom metadata fra repositoriet på Docker Hub.
Anbefalinger for nulltillitssikkerhet og autentisering
Sasi Levi, en ekspert fra Noma Security, mener DockerDash fungerer som en advarsel om risikoen ved forsyningskjeder for kunstig intelligens. Inndatakilder som tidligere ble ansett som fullstendig pålitelige, kan utnyttes til å manipulere utførelsesflyten til store modellspråk (LLM).
For å minimere risikoer bør brukere oppdatere Docker Desktop til den nyeste versjonen umiddelbart. Eksperter anbefaler at det er obligatorisk å bruke nulltillitsvalidering på alle kontekstuelle data som leveres til AI-modeller for å sikre systemsikkerhet.
Kilde: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






Kommentar (0)