ช่องโหว่ด้านความปลอดภัยของ DockerDash เป็นช่องโหว่ Meta-Context Injection ที่ร้ายแรง ซึ่งส่งผลกระทบต่อผู้ช่วย AI Ask Gordon ใน Docker Desktop และ Docker CLI ช่องโหว่นี้อนุญาตให้ผู้โจมตีสามารถเรียกใช้โค้ดที่ไม่ได้รับอนุญาตและขโมยข้อมูลที่ละเอียดอ่อนผ่านเมตาเดต้าของอิมเมจ Docker โดยไม่ต้องมีการตรวจสอบสิทธิ์
นักวิจัยจาก Noma Labs ค้นพบช่องโหว่นี้ และ Docker ได้ออกแพทช์อย่างเป็นทางการในเวอร์ชัน 4.50.0 ในเดือนพฤศจิกายน 2025

กลไกการโจมตีผ่านการแทรกข้อมูลเมตา (Meta-Context Injection)
จากข้อมูลของ Noma Security สาเหตุหลักของช่องโหว่ DockerDash มาจากวิธีที่ Ask Gordon ประมวลผลเมตาเดต้าที่ไม่ได้รับการตรวจสอบว่าเป็นคำสั่งที่ถูกต้อง ผู้โจมตีสามารถสร้างอิมเมจ Docker ที่มีคำสั่งที่เป็นอันตรายฝังอยู่ในฟิลด์ LABEL ของ Dockerfile เมื่อผู้ใช้ถาม Ask Gordon เกี่ยวกับอิมเมจนี้ AI จะวิเคราะห์และตีความคำสั่งที่เป็นอันตรายนั้นว่าเป็นคำสั่งควบคุมปกติ
จากนั้น Ask Gordon จะส่งต่อเนื้อหานี้ไปยัง MCP Gateway (Model Context Protocol) เนื่องจาก Gateway ไม่สามารถแยกแยะระหว่างป้ายกำกับที่อธิบายลักษณะและคำสั่งภายในได้ จึงดำเนินการโค้ดผ่านเครื่องมือ MCP ด้วยสิทธิ์การดูแลระบบของผู้ใช้โดยไม่จำเป็นต้องมีขั้นตอนการตรวจสอบสิทธิ์เพิ่มเติมใดๆ
ความเสี่ยงจากการเรียกใช้โค้ดและการรั่วไหลของข้อมูลระบบ
การโจมตี DockerDash นั้นอันตรายเป็นพิเศษเพราะมันใช้ประโยชน์จากสถาปัตยกรรมที่มีอยู่ของ Docker นอกจากจะสามารถเรียกใช้โค้ดจากระยะไกลได้แล้ว ผู้โจมตียังสามารถใช้ผู้ช่วย AI เพื่อรวบรวมข้อมูลที่ละเอียดอ่อนภายในสภาพแวดล้อม Docker Desktop ได้อีกด้วย ข้อมูลที่รั่วไหลอาจรวมถึงรายละเอียดของคอนเทนเนอร์ การกำหนดค่าระบบ ไดเร็กทอรีที่เชื่อมต่อ และสถาปัตยกรรมเครือข่ายภายใน
ที่สำคัญ เวอร์ชัน 4.50.0 ไม่เพียงแต่แก้ไขข้อบกพร่องของ DockerDash เท่านั้น แต่ยังแก้ไขช่องโหว่การโจมตีแบบ Prompt Injection อีกช่องโหว่หนึ่งที่ Pillar Security ค้นพบ ช่องโหว่นี้ก่อนหน้านี้ทำให้ผู้โจมตีสามารถควบคุม AI ผ่านเมตาเดต้าของที่เก็บข้อมูลบน Docker Hub ได้
คำแนะนำด้านความปลอดภัยและการตรวจสอบสิทธิ์แบบ Zero-Trust
Sasi Levi ผู้เชี่ยวชาญจาก Noma Security เชื่อว่า DockerDash เป็นสัญญาณเตือนเกี่ยวกับความเสี่ยงของห่วงโซ่อุปทาน AI แหล่งข้อมูลนำเข้าที่เคยถือว่าน่าเชื่อถืออย่างสมบูรณ์ อาจถูกใช้ประโยชน์เพื่อบิดเบือนกระบวนการทำงานของภาษาโมเดลขนาดใหญ่ (LLM)
เพื่อลดความเสี่ยง ผู้ใช้ควรอัปเดต Docker Desktop เป็นเวอร์ชันล่าสุดทันที ผู้เชี่ยวชาญแนะนำว่าการใช้การตรวจสอบความถูกต้องแบบ Zero-Trust กับข้อมูลบริบททั้งหมดที่ป้อนให้กับโมเดล AI นั้นเป็นสิ่งจำเป็นเพื่อรับรองความปลอดภัยของระบบ
ที่มา: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






การแสดงความคิดเห็น (0)