Selon un correspondant de VNA à Sydney, l'université Monash et la police fédérale australienne (AFP) collaborent au développement d'un nouvel outil d'intelligence artificielle (IA) révolutionnaire pour ralentir et empêcher les criminels de créer des images deepfake nuisibles et du matériel pédopornographique à l'aide de l'IA.
L'outil, baptisé Silverer, est un produit du Laboratoire d'IA pour les forces de l'ordre et la sécurité communautaire (AiLECS), une collaboration de recherche stratégique entre la Police fédérale australienne (AFP) et l'Université Monash, qui applique l'IA aux problématiques complexes liées à l'application de la loi et à la sécurité. Actuellement en phase pilote, l'outil est développé sous la direction d'Elizabeth Perry, doctorante à l'Université Monash.
Selon l'université Monash, ce projet utilise une technique appelée « empoisonnement des données » comme élément central de ce nouvel outil. Cette technique consiste à modifier subtilement les données sources en ligne, ce qui rend beaucoup plus difficile pour les modèles d'IA et d'apprentissage automatique (ML) de créer, manipuler et utiliser à mauvais escient des images ou des vidéos .
Étant donné que les outils d'IA nécessitent de grandes quantités de données sources, l'empoisonnement des données amène le modèle à produire des résultats inexacts, biaisés ou corrompus, ce qui facilite la détection de fausses images ou vidéos créées par des criminels.
Perry, doctorant, explique que Silverer permet aux utilisateurs de retoucher leurs images avant de les publier sur les réseaux sociaux ou sur Internet. Le logiciel modifie les pixels afin de tromper le modèle d'IA, rendant ainsi l'image déformée, altérée ou totalement méconnaissable.
Le professeur agrégé Campbell Wilson, codirecteur d'AiLECS et expert en criminalistique numérique, a déclaré que la création d'images fausses et malveillantes à l'aide de technologies open source devenait un problème de plus en plus grave en raison de sa facilité d'utilisation.
L'AFP a constaté une augmentation des contenus pédopornographiques générés par l'IA, des criminels exploitant cette technologie pour produire et diffuser en ligne de grandes quantités de fausse pornographie.
L'université Monash a indiqué que l'objectif global du projet Silverer est de développer une technologie facile d'utilisation pour les Australiens souhaitant protéger leurs données personnelles sur les réseaux sociaux. Une version pilote de l'outil est actuellement envisagée pour un usage interne au sein de la Police fédérale australienne (AFP).
Source : https://www.vietnamplus.vn/cong-cu-ai-moi-cua-australia-chong-hinh-anh-deepfake-doc-hai-post1076017.vnp






Comment (0)