Lỗ hổng bảo mật DockerDash là lỗi Meta-Context Injection nghiêm trọng ảnh hưởng đến trợ lý trí tuệ nhân tạo Ask Gordon trong Docker Desktop và Docker CLI. Lỗ hổng này cho phép kẻ tấn công thực thi mã trái phép và đánh cắp dữ liệu nhạy cảm thông qua siêu dữ liệu hình ảnh Docker mà không cần xác thực.
Các nhà nghiên cứu tại Noma Labs đã phát hiện lỗ hổng này và Docker đã chính thức phát hành bản vá lỗi trong phiên bản 4.50.0 vào tháng 11 năm 2025.
Cơ chế khai thác qua Meta-Context Injection
Theo Noma Security, nguyên nhân gốc rễ của DockerDash nằm ở việc Ask Gordon coi siêu dữ liệu chưa được xác minh là các lệnh hợp lệ. Kẻ tấn công có thể tạo một hình ảnh Docker chứa các lệnh độc hại nhúng trong trường LABEL của Dockerfile. Khi người dùng đặt câu hỏi cho Ask Gordon về hình ảnh này, AI sẽ phân tích và diễn giải chỉ thị độc hại như một lệnh điều khiển thông thường.
Sau đó, Ask Gordon chuyển tiếp nội dung này đến MCP Gateway (Model Context Protocol). Do Gateway không thể phân biệt giữa nhãn mô tả và lệnh nội bộ, nó sẽ thực thi mã thông qua các công cụ MCP với quyền quản trị của người dùng mà không yêu cầu bước xác thực bổ sung nào.
Rủi ro thực thi mã và rò rỉ dữ liệu hệ thống
Cuộc tấn công DockerDash đặc biệt nguy hiểm vì nó tận dụng các kiến trúc sẵn có của Docker. Ngoài khả năng thực thi mã từ xa, kẻ tấn công có thể lợi dụng trợ lý AI để thu thập dữ liệu nhạy cảm trong môi trường Docker Desktop. Thông tin bị lộ có thể bao gồm chi tiết container, cấu hình hệ thống, các thư mục được gắn kết và cấu trúc mạng nội bộ.
Đáng chú ý, phiên bản 4.50.0 không chỉ vá DockerDash mà còn khắc phục một lỗ hổng chèn lời nhắc (prompt injection) khác do Pillar Security phát hiện. Lỗ hổng này trước đó cho phép kẻ tấn công chiếm quyền điều khiển AI thông qua siêu dữ liệu kho lưu trữ trên Docker Hub.
Khuyến nghị bảo mật và xác thực Zero-Trust
Chuyên gia Sasi Levi từ Noma Security nhận định DockerDash là lời cảnh báo về rủi ro chuỗi cung ứng AI. Các nguồn đầu vào vốn được xem là đáng tin cậy hoàn toàn có thể bị lợi dụng để thao túng luồng thực thi của mô hình ngôn ngữ lớn (LLM).
Để giảm thiểu rủi ro, người dùng cần cập nhật Docker Desktop lên phiên bản mới nhất ngay lập tức. Các chuyên gia khuyến cáo việc áp dụng xác thực không tin tưởng (zero-trust validation) cho toàn bộ dữ liệu ngữ cảnh cung cấp cho mô hình AI là yêu cầu bắt buộc để đảm bảo an toàn hệ thống.
Nguồn: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






Bình luận (0)