Kerentanan keselamatan DockerDash merupakan kecacatan Suntikan Meta-Konteks kritikal yang menjejaskan pembantu AI Ask Gordon dalam Docker Desktop dan Docker CLI. Kerentanan ini membolehkan penyerang melaksanakan kod tanpa kebenaran dan mencuri data sensitif melalui metadata imej Docker tanpa pengesahan.
Penyelidik di Noma Labs menemui kelemahan ini, dan Docker secara rasmi mengeluarkan tampalan dalam versi 4.50.0 pada November 2025.

Mekanisme eksploitasi melalui Suntikan Meta-Konteks
Menurut Noma Security, punca utama DockerDash terletak pada cara Ask Gordon memproses metadata yang tidak disahkan sebagai arahan yang sah. Penyerang boleh mencipta imej Docker yang mengandungi arahan berniat jahat yang terbenam dalam medan LABEL fail Docker. Apabila pengguna bertanya kepada Ask Gordon tentang imej ini, AI akan menganalisis dan mentafsir arahan berniat jahat tersebut sebagai arahan kawalan biasa.
Ask Gordon kemudian memajukan kandungan ini ke Gerbang MCP (Protokol Konteks Model). Oleh kerana Gerbang tidak dapat membezakan antara label deskriptif dan arahan dalaman, ia melaksanakan kod melalui alat MCP dengan keistimewaan pentadbiran pengguna tanpa memerlukan sebarang langkah pengesahan tambahan.
Risiko pelaksanaan kod dan kebocoran data sistem.
Serangan DockerDash amat berbahaya kerana ia memanfaatkan seni bina sedia ada Docker. Selain pelaksanaan kod jarak jauh, penyerang boleh mengeksploitasi pembantu AI untuk mengumpul data sensitif dalam persekitaran Docker Desktop. Maklumat yang terdedah boleh merangkumi butiran kontena, konfigurasi sistem, direktori yang dipasang dan seni bina rangkaian dalaman.
Terutamanya, versi 4.50.0 bukan sahaja menampal DockerDash tetapi juga membetulkan satu lagi kelemahan suntikan gesaan yang ditemui oleh Pillar Security. Kelemahan ini sebelum ini membolehkan penyerang mengawal AI melalui metadata repositori di Docker Hub.
Cadangan keselamatan dan pengesahan Sifar-Kepercayaan
Sasi Levi, seorang pakar dari Noma Security, percaya DockerDash berfungsi sebagai amaran tentang risiko rantaian bekalan AI. Sumber input yang sebelum ini dianggap boleh dipercayai sepenuhnya boleh dieksploitasi untuk memanipulasi aliran pelaksanaan bahasa model besar (LLM).
Untuk meminimumkan risiko, pengguna harus mengemas kini Docker Desktop kepada versi terkini dengan segera. Pakar mengesyorkan agar pengesahan sifar-kepercayaan digunakan pada semua data kontekstual yang diberikan kepada model AI adalah wajib bagi memastikan keselamatan sistem.
Sumber: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






Komen (0)