Les responsables sud-coréens ont déclaré le 27 avril que la Commission électorale nationale (NEC) du pays avait introduit un modèle d'intelligence artificielle (IA) pour détecter les fausses nouvelles développé par le Service national de police scientifique (NFS) pour empêcher la propagation de fausses vidéos deepfake lors de l'élection présidentielle anticipée du 3 juin.
Ce modèle d'IA s'appelle Aegis, du nom du bouclier utilisé par Zeus dans la mythologie grecque. Aegis sera utilisé par NEC pour détecter les vidéos deepfake sophistiquées créées par l'IA et difficiles à identifier à l'œil nu. Aegis a été développé conjointement par NFS et le Korea Electronics Technology Institute (KETI).
Le NFS mène des recherches depuis avril de l’année dernière dans le cadre d’un projet organisé par le KETI et financé par l’Institut de planification et d’évaluation des technologies de l’information et de la communication. Le projet s'appelle « Technologie de détection de deepfake auto-évolutive pour prévenir les effets secondaires sociaux causés par l'IA ».
Aegis a été développé au cours de la deuxième année du projet avec la participation de l'Université nationale de police de Corée, KAIST, Cleon (une société de création de visages et de voix IA) et Wysiwyg Studios (une société de production cinématographique). Aegis est optimisé pour détecter les vidéos deepfake les plus difficiles.
En vertu de la loi révisée sur les élections dans la fonction publique de la Corée du Sud, qui entrera en vigueur en janvier 2024, il est illégal de produire ou de distribuer des vidéos deepfake générées par l'IA à des fins de campagne. Cependant, ces derniers temps, les vidéos deepfake ciblant les principaux candidats à la présidence se sont multipliées sur Internet, la plupart contenant du contenu diffamatoire ou calomnieux. Par exemple, des vidéos deepfake du candidat du Parti démocrate (PD) Lee Jae Myung portant un uniforme de prisonnier ou du candidat du Parti du pouvoir populaire (PPP) Han Dong Hoon retirant sa perruque.
Le 9 avril, NEC a lancé un groupe de travail sur les faux deepfakes d'IA, en utilisant un processus de détection en trois étapes. En conséquence, dans un premier temps, le superviseur vérifiera les vidéos visuellement. Si une vidéo est difficile à distinguer, un modèle d’IA comme Aegis sera utilisé pour l’analyser, et enfin, une évaluation par des experts en IA sera effectuée.
« Nous utilisons principalement l'Aegis de NFS en raison de sa grande précision de détection, mais nous le vérifions également avec d'autres modèles », a déclaré un responsable de NEC.
Aegis est conçu pour détecter la sortie générée via la méthode de diffusion, l'une des méthodes les plus récentes de génération d'images IA. Il existe deux principales méthodes de génération d’images d’IA, notamment les réseaux antagonistes génératifs (GAN) et les modèles de diffusion. Les GAN impliquent deux réseaux neuronaux concurrents pour générer rapidement des images, mais les images résultantes sont souvent déformées, ce qui les rend plus faciles à détecter.
En revanche, les générateurs d’images récents comme Midjourney et DALL-E d’OpenAI utilisent une approche de diffusion (ajout de bruit artificiel à une image, puis suppression du bruit pour produire une image haute résolution et de haute qualité). Par conséquent, l’image générée par la méthode de diffusion est beaucoup plus difficile à distinguer de l’image réelle, en utilisant uniquement des techniques de détection conventionnelles.
Aegis est amélioré pour détecter même les vidéos deepfake créées à l'aide de méthodes de diffusion.
« Nous équipons Aegis non seulement pour détecter les deepfakes et les deepfakes, mais aussi pour analyser si le contenu créé est à des fins malveillantes », a déclaré un responsable du NFS./.
Source : https://www.vietnamplus.vn/han-quoc-su-dung-tri-tue-nhan-tao-phat-hien-video-gia-mao-ve-bau-cu-post1035586.vnp
Comment (0)