Las autoridades surcoreanas dijeron el 27 de abril que la Comisión Electoral Nacional (NEC) del país ha introducido un modelo de inteligencia artificial (IA) para detectar noticias falsas desarrollado por el Servicio Forense Nacional (NFS) para prevenir la propagación de videos deepfake falsos durante las elecciones presidenciales anticipadas del 3 de junio.
Este modelo de IA se llama Aegis, nombre que proviene del escudo utilizado por Zeus en la mitología griega. NEC utilizará Aegis para detectar sofisticados vídeos deepfake creados por IA que son difíciles de identificar a simple vista. Aegis fue desarrollado conjuntamente por NFS y el Instituto de Tecnología Electrónica de Corea (KETI).
NFS ha estado realizando investigaciones desde abril del año pasado en el marco de un proyecto organizado por KETI y financiado por el Instituto de Planificación y Evaluación de Tecnologías de la Información y las Comunicaciones. El proyecto se llama "Tecnología de detección de deepfakes de autoevolución para prevenir los efectos secundarios sociales causados por la IA".
Aegis se desarrolló en el segundo año del proyecto con la participación de la Universidad Nacional de Policía de Corea, KAIST, Cleon (una empresa de creación de rostros y voces con inteligencia artificial) y Wysiwyg Studios (una empresa de producción cinematográfica). Aegis está optimizado para detectar los vídeos deepfake más difíciles.
Según la Ley de Elecciones del Servicio Civil revisada de Corea del Sur, que entrará en vigor en enero de 2024, es ilegal producir o distribuir vídeos deepfake generados por inteligencia artificial con fines de campaña. Sin embargo, en los últimos tiempos han proliferado en Internet vídeos deepfake dirigidos contra importantes candidatos presidenciales, la mayoría de los cuales contienen contenido difamatorio o calumnioso. Por ejemplo, videos deepfake del candidato del Partido Democrático (PD), Lee Jae Myung, vistiendo un uniforme de prisionero, o del candidato del Partido del Poder Popular (PPP), Han Dong Hoon, quitándose la peluca.
El 9 de abril, NEC lanzó un grupo de trabajo sobre deepfakes de inteligencia artificial falsos, utilizando un proceso de detección de tres etapas. En consecuencia, en primer lugar el supervisor comprobará visualmente los vídeos. Si un vídeo es difícil de distinguir, se utilizará un modelo de IA como Aegis para analizarlo y, finalmente, se realizará una evaluación por parte de expertos en IA.
“Utilizamos principalmente Aegis de NFS debido a su alta precisión de detección, pero también lo verificamos con otros modelos”, dijo un funcionario de NEC.
Aegis está diseñado para detectar la salida generada a través del método de difusión, uno de los métodos más nuevos para la generación de imágenes de IA. Hay dos métodos principales de generación de imágenes de IA: las redes generativas antagónicas (GAN) y los modelos de difusión. Las GAN involucran dos redes neuronales que compiten para generar imágenes rápidamente, pero las imágenes resultantes a menudo están distorsionadas, lo que las hace más fáciles de detectar.
Por el contrario, los generadores de imágenes recientes como Midjourney y DALL-E de OpenAI utilizan un enfoque de difusión (agregar ruido artificial a una imagen y luego eliminarlo para producir una imagen de alta resolución y alta calidad). Por lo tanto, la imagen generada por el método de difusión es mucho más difícil de distinguir de la imagen real, utilizando únicamente técnicas de detección convencionales.
Aegis se ha mejorado para detectar incluso vídeos deepfake creados mediante métodos de difusión.
“Estamos equipando a Aegis no solo para detectar deepfakes y deepfakes, sino también para analizar si el contenido creado tiene fines maliciosos”, dijo un funcionario de NFS.
Fuente: https://www.vietnamplus.vn/han-quoc-su-dung-tri-tue-nhan-tao-phat-hien-video-gia-mao-ve-bau-cu-post1035586.vnp
Kommentar (0)