إيكو ليك والمخاطر المحتملة للذكاء الاصطناعي
مع تزايد انخراط الذكاء الاصطناعي في كل وظيفة، من المساعدة في كتابة التقارير، إلى الرد على رسائل البريد الإلكتروني، إلى تحليل البيانات، يبدو أن المستخدمين يعيشون في عصر من الراحة غير المسبوقة. لكن الجانب المظلم من الراحة بدأ يبرز أيضًا، لا سيما فيما يتعلق بالأمن.
تركت ثغرة أمنية حديثة أطلق عليها اسم EchoLeak مستخدمي خدمة Microsoft Copilot معرضين لخطر تسريب بياناتهم الحساسة دون اتخاذ أي إجراء.
عندما يصبح الذكاء الاصطناعي ثغرة أمنية
وفقًا لبحث Tuoi Tre Online ، فإن EchoLeak عبارة عن ثغرة أمنية تم تسجيلها للتو بالكود CVE-2025-32711، والذي صنفه الخبراء على أنه خطير بمعدل 9.3/10 وفقًا لمقياس NIST.
ما يقلق خبراء الأمن هو طبيعة البرنامج التي تعتمد على مبدأ "النقر صفر" : حيث يمكن للمهاجمين استغلال البيانات من برنامج Copilot دون أن يضطر المستخدم إلى النقر أو فتح ملف أو حتى معرفة حدوث أي شيء.
هذا ليس خطأً بسيطًا. يعتقد فريق البحث في Aim Labs، الذي اكتشف الثغرة، أن EchoLeak يعكس عيبًا تصميميًا شائعًا في أنظمة RAG (الجيل المعزز بالاسترجاع) وأنظمة الذكاء الاصطناعي القائمة على الوكلاء. ولأن Copilot جزء من مجموعة تطبيقات Microsoft 365 التي تخزن رسائل البريد الإلكتروني والمستندات وجداول البيانات وجداول اجتماعات ملايين المستخدمين، فإن خطر تسرب البيانات بالغ الخطورة.
لا تكمن المشكلة في الكود المُحدد فحسب، بل في طريقة عمل نماذج اللغات الكبيرة (LLMs). تحتاج أنظمة الذكاء الاصطناعي إلى سياق واسع للاستجابة بدقة، ولذلك تُمنح حق الوصول إلى كميات هائلة من البيانات الأساسية. فبدون ضوابط واضحة على المدخلات والمخرجات، قد تُدار أنظمة الذكاء الاصطناعي بطرق لا يدركها المستخدمون. وهذا يُنشئ نوعًا جديدًا من "الثغرات" ليس بسبب خلل في الكود، بل لأن أنظمة الذكاء الاصطناعي تتصرف خارج نطاق الفهم البشري.
أصدرت مايكروسوفت تصحيحًا سريعًا، ولم تُبلغ عن أي أضرار فعلية حتى الآن. لكن الدرس المستفاد من ثغرة إيكو ليك واضح: عندما يُدمج الذكاء الاصطناعي بعمق في أنظمة العمل، فإن حتى الأخطاء الصغيرة في فهمه للسياق قد تُسبب عواقب أمنية جسيمة.
كلما كان الذكاء الاصطناعي أكثر ملاءمة، كلما كانت البيانات الشخصية أكثر هشاشة
تُثير حادثة إيكو ليك سؤالاً مُقلقاً: هل يثق المستخدمون بالذكاء الاصطناعي لدرجة أنهم لا يُدركون إمكانية تتبُّعهم أو كشف معلوماتهم الشخصية بمجرد رسالة نصية؟ ثغرة أمنية مُكتشفة حديثاً تُتيح للمُخترقين استخراج البيانات بصمت دون الحاجة إلى ضغط أي زر من المستخدمين، وهي أمرٌ كان يُشاهد في أفلام الخيال العلمي فقط، ولكنه أصبح الآن واقعاً ملموساً.
في حين أصبحت تطبيقات الذكاء الاصطناعي تحظى بشعبية متزايدة من المساعدين الافتراضيين مثل Copilot، والروبوتات الدردشة في الخدمات المصرفية والتعليم ، إلى منصات الذكاء الاصطناعي التي تكتب المحتوى، وتعالج رسائل البريد الإلكتروني، فإن معظم الناس لا يتم تحذيرهم بشأن كيفية معالجة بياناتهم وتخزينها.
لم يعد "الدردشة" مع نظام الذكاء الاصطناعي مجرد طرح بعض الأسئلة للراحة، بل قد تكشف أيضًا عن موقعك أو عاداتك أو مشاعرك أو حتى معلومات حسابك عن غير قصد.
في فيتنام، يعتاد الكثيرون على استخدام الذكاء الاصطناعي على الهواتف والحواسيب دون معرفة أساسية بالأمن الرقمي . يشارك الكثيرون معلوماتهم الشخصية مع الذكاء الاصطناعي ظنًا منهم أنه "مجرد آلة". لكن في الواقع، يكمن وراءه نظام قادر على تسجيل البيانات وتعلمها ونقلها إلى جهات أخرى، خاصةً عندما تكون منصة الذكاء الاصطناعي تابعة لجهة خارجية ولم تخضع لاختبارات أمنية دقيقة.
وللحد من المخاطر، لا يتعين على المستخدمين بالضرورة التخلي عن التكنولوجيا، ولكنهم بحاجة إلى أن يكونوا أكثر وعياً: يجب عليهم التحقق بعناية مما إذا كان تطبيق الذكاء الاصطناعي الذي يستخدمونه يحتوي على مصدر موثوق، وما إذا كانت البيانات مشفرة، وخاصة عدم مشاركة المعلومات الحساسة مثل أرقام الهوية والحسابات المصرفية والمعلومات الصحية... مع أي نظام ذكاء اصطناعي دون تحذير واضح.
تمامًا كما حدث عندما وُلد الإنترنت لأول مرة، تحتاج الذكاء الاصطناعي أيضًا إلى الوقت حتى تكتمل، وخلال ذلك الوقت، يجب أن يكون المستخدمون أول من يحمون أنفسهم بشكل استباقي.
هل تشارك كثيرًا مع الذكاء الاصطناعي؟
عند كتابة أمر "أعد كتابة هذا التقرير لي ولكن بأسلوب أكثر ودية" أو "لخّص اجتماع الأمس"، يظنّ الكثيرون أن الذكاء الاصطناعي لا يستطيع تسجيل جميع المعلومات التي يُدخلونها، بما في ذلك التفاصيل الداخلية والمشاعر الشخصية وعادات العمل. لقد اعتدنا تدريجيًا على الدردشة باستخدام الأدوات الذكية، متناسين الفرق بين الراحة والخصوصية.
المصدر: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm
تعليق (0)