Kerentanan keamanan DockerDash adalah celah Meta-Context Injection kritis yang memengaruhi asisten AI Ask Gordon di Docker Desktop dan Docker CLI. Kerentanan ini memungkinkan penyerang untuk mengeksekusi kode yang tidak sah dan mencuri data sensitif melalui metadata citra Docker tanpa otentikasi.
Para peneliti di Noma Labs menemukan kerentanan ini, dan Docker secara resmi merilis patch dalam versi 4.50.0 pada November 2025.

Mekanisme eksploitasi melalui Injeksi Meta-Konteks
Menurut Noma Security, akar penyebab kerentanan DockerDash terletak pada cara Ask Gordon memperlakukan metadata yang tidak terverifikasi sebagai perintah yang valid. Penyerang dapat membuat citra Docker yang berisi perintah berbahaya yang tertanam dalam bidang LABEL dari Dockerfile. Ketika pengguna menanyakan kepada Ask Gordon tentang citra ini, AI menganalisis dan menafsirkan arahan berbahaya tersebut sebagai perintah kontrol normal.
Kemudian, Ask Gordon meneruskan konten ini ke MCP Gateway (Model Context Protocol). Karena Gateway tidak dapat membedakan antara label deskriptif dan perintah internal, ia mengeksekusi kode melalui alat MCP dengan hak akses administratif pengguna tanpa memerlukan langkah otentikasi tambahan.
Risiko eksekusi kode dan kebocoran data sistem.
Serangan DockerDash sangat berbahaya karena memanfaatkan arsitektur Docker yang sudah ada. Selain eksekusi kode jarak jauh, penyerang dapat mengeksploitasi asisten AI untuk mengumpulkan data sensitif di dalam lingkungan Docker Desktop. Informasi yang terungkap dapat mencakup detail kontainer, konfigurasi sistem, direktori yang terpasang, dan arsitektur jaringan internal.
Yang perlu diperhatikan, versi 4.50.0 tidak hanya menambal DockerDash tetapi juga memperbaiki kerentanan injeksi prompt lain yang ditemukan oleh Pillar Security. Kerentanan ini sebelumnya memungkinkan penyerang untuk mendapatkan kendali atas AI melalui metadata repositori di Docker Hub.
Rekomendasi keamanan dan otentikasi Zero-Trust
Sasi Levi, seorang ahli dari Noma Security, percaya bahwa DockerDash berfungsi sebagai peringatan tentang risiko rantai pasokan AI. Sumber input yang sebelumnya dianggap sepenuhnya dapat dipercaya dapat dieksploitasi untuk memanipulasi alur eksekusi bahasa model besar (LLM).
Untuk meminimalkan risiko, pengguna harus segera memperbarui Docker Desktop ke versi terbaru. Para ahli merekomendasikan agar penerapan validasi zero-trust pada semua data kontekstual yang diberikan kepada model AI bersifat wajib untuk memastikan keamanan sistem.
Sumber: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






Komentar (0)