وبحسب مراسل وكالة الأنباء الفيتنامية في سيدني، تتعاون جامعة موناش والشرطة الفيدرالية الأسترالية لتطوير أداة جديدة رائدة للذكاء الاصطناعي تهدف إلى إبطاء ومنع المجرمين من إنشاء صور مزيفة ضارة ومواد إساءة معاملة الأطفال باستخدام الذكاء الاصطناعي.
الأداة، المسماة "سيلفرر"، هي نتاج مختبر الذكاء الاصطناعي لإنفاذ القانون وسلامة المجتمع (AiLECS)، وهو تعاون بحثي استراتيجي بين الشرطة الفيدرالية الأسترالية وجامعة موناش، يُطبّق الذكاء الاصطناعي على تحديات إنفاذ القانون والأمن المعقدة. الأداة حاليًا في مرحلتها التجريبية، ويجري تطويرها بقيادة إليزابيث بيري، طالبة الدكتوراه في جامعة موناش.
وفقًا لجامعة موناش، يستخدم المشروع تقنية تُسمى "تسميم البيانات" كتقنية أساسية في هذه الأداة الجديدة. تتضمن هذه التقنية تعديل بيانات المصدر على الإنترنت بشكل دقيق، مما يُصعّب بشكل كبير على نماذج الذكاء الاصطناعي والتعلم الآلي إنشاء الصور أو مقاطع الفيديو ومعالجتها وإساءة استخدامها.
نظرًا لأن أدوات الذكاء الاصطناعي تتطلب كميات كبيرة من بيانات المصدر، فإن تسميم البيانات يتسبب في إنتاج النموذج لنتائج غير دقيقة أو منحرفة أو تالفة، مما يجعل من السهل اكتشاف الصور أو مقاطع الفيديو المزيفة التي أنشأها المجرمون.
يوضح بيري، طالب الدكتوراه، أنه يمكن للمستخدمين استخدام سيلفر لتحرير الصور قبل نشرها على مواقع التواصل الاجتماعي أو الإنترنت. سيؤدي ذلك إلى تغيير وحدات البكسل لخداع نموذج الذكاء الاصطناعي، مما يجعل مخرجاتها مشوهة، مغطاة بتشوهات، أو غير قابلة للتمييز تمامًا.
قال البروفيسور كامبل ويلسون، المدير المشارك لـ AiLECS وخبير الطب الشرعي الرقمي، إن إنشاء صور مزيفة وخبيثة باستخدام تقنية مفتوحة المصدر أصبح مشكلة أكثر خطورة بسبب سهولة استخدامها.
وثقت وكالة فرانس برس ارتفاعًا في مواد إساءة معاملة الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث يستغل المجرمون التكنولوجيا لإنتاج كميات كبيرة من المواد الإباحية المزيفة ومشاركتها عبر الإنترنت.
صرحت جامعة موناش بأن الهدف الرئيسي لمشروع سيلفر هو تطوير تقنية سهلة الاستخدام للأستراليين الراغبين في حماية بياناتهم الشخصية على وسائل التواصل الاجتماعي. ويجري حاليًا دراسة إصدار تجريبي من الأداة للاستخدام الداخلي في وكالة حماية البيئة الأسترالية.
المصدر: https://www.vietnamplus.vn/cong-cu-ai-moi-cua-australia-chong-hinh-anh-deepfake-doc-hai-post1076017.vnp






تعليق (0)