
يمكن أن تؤدي المستندات المصابة إلى تسريب البيانات على Google Drive عبر ChatGPT (الصورة: Wired).
والأمر المثير للقلق هو أن هذه الثغرة لا تتطلب أي إجراء من المستخدم، مما يثير تحذيرات جديدة بشأن الأمن السيبراني في سياق نماذج الذكاء الاصطناعي المرتبطة بشكل متزايد بالبيانات الشخصية.
وثائق "مسمومة" تؤدي إلى تسريبات بيانات
في مؤتمر Black Hat للأمن في لاس فيغاس (الولايات المتحدة) في 6 أغسطس، استعرض الخبيران مايكل بارغوري وتامير إيشاي شربات أسلوب هجوم يسمى AgentFlayer .
يستغل هذا الهجوم ثغرة أمنية في Connectors - وهي ميزة تربط ChatGPT بخدمات خارجية مثل Google Drive أو Gmail أو Microsoft Calendar.
قال مايكل بارغوري، المدير التقني لشركة زينيتي للأمن: "لا يحتاج المستخدم إلى أي إجراء لاختراق بياناته أو تسريبها. لقد أثبتنا أن الأمر لا يتطلب أي نقرة".
يبدأ الهجوم بمشاركة المهاجم مستندًا "مُشوّهًا" على حساب الضحية على جوجل درايف. يحتوي المستند على رسالة برمجية خبيثة يبلغ طولها حوالي 300 كلمة، مكتوبة بخط أبيض بحجم نقطة واحدة - تكاد تكون غير مرئية للعين المجردة، لكنها تظل قابلة للقراءة بواسطة الكمبيوتر.
ظاهريًا، يبدو النص مُقنّعًا كملاحظات اجتماع. في الواقع، يحتوي على تعليمات لبرنامج ChatGPT للعثور على مفاتيح API حساسة واستخراجها من حساب Google Drive الخاص بالضحية.
بدلاً من تلخيص المحتوى كما طلب المستخدم، يُجبر هذا الموجه الخفي الذكاء الاصطناعي على إرسال مفاتيح واجهة برمجة التطبيقات التي يجدها إلى خادم خارجي عبر رابط Markdown. تُستخرج البيانات كصورة، مما يسمح للخادم بالتقاط المعلومات كاملةً.
لقد توصلت شركة OpenAI إلى حل، لكن المخاطر لا تزال قائمة
سارعت OpenAI إلى تطبيق إجراءات التخفيف بعد تلقي تقرير بارغوري. وصرح آندي وين، المدير الأول لإدارة منتجات الأمن في جوجل وورك سبيس، قائلاً: "من المهم تطوير دفاعات قوية ضد هجمات حقن البرامج الضارة السريعة".
على الرغم من إصلاح الثغرة، تُسلّط هذه الحادثة الضوء على المخاطر المحتملة لربط نماذج اللغات الكبيرة (LLMs) بأنظمة خارجية. ومع ازدياد اندماج الذكاء الاصطناعي في حياتنا وعملنا، تتسع أيضًا مساحة الهجوم التي يمكن للمخترقين استغلالها.
ويحذر الخبراء من أن الحقن الفوري غير المباشر يمكن أن يصبح تهديدًا خطيرًا، مما يسمح للمهاجمين بالسيطرة على العديد من الأنظمة الذكية، من المنازل الذكية إلى البنية التحتية للمؤسسات.
ويختتم بارغوري قائلاً: "إن ربط برامج الماجستير في القانون بمصادر البيانات الخارجية أمر قوي، ولكن كما هو الحال غالبًا مع الذكاء الاصطناعي، فإن زيادة القوة تعني زيادة المخاطر".
المصدر: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
تعليق (0)