نجح علماء أستراليون في تطوير تقنية جديدة يمكنها منع أنظمة الذكاء الاصطناعي من التعلم بشكل غير قانوني من الصور والأعمال الفنية وغيرها من المحتوى عبر الإنترنت.
وتقوم هذه التقنية، التي طورتها وكالة العلوم الوطنية الأسترالية (CSIRO)، بتغيير محتوى الصور بشكل خفي لجعلها غير قابلة للقراءة بواسطة نماذج الذكاء الاصطناعي مع بقائها دون تغيير للعين البشرية، وفقًا لمشروع طورته CSIRO بالتعاون مع مركز أبحاث التعاون الأمني السيبراني الأسترالي (CSCRC) وجامعة شيكاغو.
يقول الباحثون إن هذا الاختراق قد يساعد الفنانين والمؤسسات ومستخدمي وسائل التواصل الاجتماعي على حماية أعمالهم وبياناتهم الشخصية من استخدامها لتدريب أنظمة الذكاء الاصطناعي أو إنشاء مقاطع فيديو وصور ومقاطع صوتية مزيفة عالية الواقعية، مُصممة بواسطة الذكاء الاصطناعي. على سبيل المثال، يمكن للمستخدمين وضع طبقة حماية تلقائيًا على الصور قبل نشرها، مما يمنع الذكاء الاصطناعي من تعلم ملامح الوجه لإنشاء مقاطع فيديو مزيفة.
وعلى نحو مماثل، قد تقوم منظمات الدفاع بحماية صور الأقمار الصناعية الحساسة أو البيانات المتعلقة بالتهديدات السيبرانية.
وبحسب الدكتور ديروي وانج، وهو عالم في منظمة البحوث العلمية والصناعية الكومنولثية، فإن هذه الطريقة تستخدم أساسًا رياضيًا قويًا لضمان عدم قدرة نماذج الذكاء الاصطناعي على التعلم من هذا المحتوى، أو بعبارة أخرى، تجعل هذه التقنية البيانات "غير قابلة للتعلم" بواسطة الذكاء الاصطناعي إلى درجة تحمي الخصوصية وحقوق النشر، مع الاحتفاظ بفائدتها للبشر.
وأضاف أن هذه الحماية تظل سارية حتى لو حاول الذكاء الاصطناعي التكيف أو تم إعادة تدريبه.
قال الدكتور وانغ إنه يمكن تطبيق هذه التقنية تلقائيًا على نطاق واسع. وأضاف أن منصات التواصل الاجتماعي أو المواقع الإلكترونية يمكنها تضمين هذه الطبقة الواقية في جميع الصور المُحمّلة. هذا من شأنه الحد من انتشار التزييف العميق، والحد من سرقة الملكية الفكرية، ومساعدة المستخدمين على التحكم في محتواهم.
بينما تقتصر هذه الطريقة حاليًا على الصور، يخطط الباحثون لتوسيع نطاقها لتشمل النصوص والموسيقى والفيديو. لا تزال هذه التقنية في مرحلتها النظرية، ولم تُثبت فعاليتها إلا في بيئة مختبرية.
حصل العمل العلمي المذكور أعلاه، والذي يحمل عنوان "أمثلة بيانات يصعب تعلمها على نحو مؤكد"، على جائزة البحث المتميز في ندوة أمن الشبكات والأنظمة الموزعة لعام 2025 (NDSS)./.
المصدر: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
تعليق (0)