تُعدّ ثغرة DockerDash الأمنية عيبًا خطيرًا في حقن السياق الوصفي، وتؤثر على مساعد Ask Gordon الذكي في Docker Desktop وDocker CLI. تسمح هذه الثغرة للمهاجمين بتنفيذ تعليمات برمجية غير مصرح بها وسرقة بيانات حساسة عبر بيانات تعريف صورة Docker دون الحاجة إلى مصادقة.
اكتشف الباحثون في مختبرات نوما هذه الثغرة الأمنية، وأصدرت شركة دوكر رسميًا تصحيحًا في الإصدار 4.50.0 في نوفمبر 2025.

آلية الاستغلال عبر حقن السياق الفوقي
بحسب شركة نوما سيكيوريتي، يكمن السبب الجذري لثغرة DockerDash في تعامل برنامج Ask Gordon مع البيانات الوصفية غير الموثقة كأوامر صالحة. يستطيع المهاجم إنشاء صورة Docker تحتوي على أوامر خبيثة مضمنة في حقل LABEL الخاص بملف Dockerfile. عندما يستفسر المستخدم من Ask Gordon عن هذه الصورة، يقوم الذكاء الاصطناعي بتحليل التوجيه الخبيث وتفسيره كأمر تحكم عادي.
يقوم برنامج Ask Gordon بعد ذلك بإعادة توجيه هذا المحتوى إلى بوابة MCP (بروتوكول سياق النموذج). ولأن البوابة لا تستطيع التمييز بين التسميات الوصفية والأوامر الداخلية، فإنها تُنفذ التعليمات البرمجية من خلال أدوات MCP باستخدام صلاحيات المستخدم الإدارية دون الحاجة إلى أي خطوات مصادقة إضافية.
مخاطر تنفيذ التعليمات البرمجية وتسريب بيانات النظام.
يُعدّ هجوم DockerDash خطيرًا للغاية لأنه يستغل بنية Docker الحالية. فبالإضافة إلى تنفيذ التعليمات البرمجية عن بُعد، يستطيع المهاجمون استغلال مساعدي الذكاء الاصطناعي لجمع بيانات حساسة داخل بيئة Docker Desktop. وقد تشمل المعلومات المُعرّضة تفاصيل الحاويات، وإعدادات النظام، والمجلدات المُثبّتة، وبنية الشبكة الداخلية.
تجدر الإشارة إلى أن الإصدار 4.50.0 لا يقتصر على إصلاح DockerDash فحسب، بل يعالج أيضًا ثغرة أمنية أخرى تتعلق بحقن موجه الأوامر، والتي اكتشفتها شركة Pillar Security. كانت هذه الثغرة تسمح سابقًا للمهاجمين بالسيطرة على الذكاء الاصطناعي من خلال بيانات تعريف المستودع على Docker Hub.
توصيات أمنية وتوثيقية قائمة على مبدأ انعدام الثقة
يرى ساسي ليفي، الخبير في شركة نوما سيكيوريتي، أن DockerDash بمثابة تحذير بشأن مخاطر سلاسل توريد الذكاء الاصطناعي. إذ يمكن استغلال مصادر الإدخال التي كانت تُعتبر سابقًا موثوقة تمامًا للتلاعب بتدفق تنفيذ لغة النماذج الكبيرة (LLM).
لتقليل المخاطر، ينبغي على المستخدمين تحديث Docker Desktop إلى أحدث إصدار فورًا. ويوصي الخبراء بتطبيق آلية التحقق من انعدام الثقة على جميع البيانات السياقية المُقدمة لنماذج الذكاء الاصطناعي لضمان أمان النظام.
المصدر: https://baonghean.vn/docker-khac-phuc-lo-hong-dockerdash-de-doa-tro-ly-ai-ask-gordon-10322463.html






تعليق (0)