El modelo omnimodal, llamado OmniHuman-1, puede crear videos dinámicos de personajes hablando, cantando y moviéndose con "una calidad superior en comparación con los métodos de creación de videos actuales", según el equipo de desarrollo de ByteDance.

La tecnología de inteligencia artificial que crea imágenes, vídeos y audio realistas, también conocida como "deepfake", se utiliza cada vez más en estafas y entretenimiento.

ByteDance es actualmente una de las empresas de inteligencia artificial más importantes de China. Su aplicación Doubao es la más popular entre los usuarios de China continental.

Aunque OmniHuman-1 aún no se ha lanzado ampliamente al público, los videos de muestra se han difundido rápidamente.

Una demostración destacada fue un video de 23 segundos que mostraba a Albert Einstein dando un discurso. TechCrunch describió el resultado de la aplicación como "sorprendentemente asombroso" y "los videos deepfake más realistas hasta la fecha".

Los desarrolladores dicen que OmniHuman-1 solo necesita una única imagen como datos de referencia junto con datos de audio, como voz o canto, para crear un video de cualquier duración.

Se puede ajustar la velocidad de cuadros del vídeo de salida, así como las "proporciones corporales" de los personajes que contiene.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance es actualmente una de las empresas de inteligencia artificial más importantes de China. Foto: TechCrunch

Además, el modelo de IA, entrenado con 19.000 horas de contenido de vídeo de fuentes inéditas, es capaz de editar vídeos existentes e incluso alterar los movimientos de manos y pies humanos con un grado convincente.

Sin embargo, ByteDance también admitió que OmniHuman-1 no es perfecto, ya que todavía tiene problemas con ciertas poses, y que las "imágenes de referencia de baja calidad" no producirán el mejor video.

El nuevo modelo de inteligencia artificial de ByteDance demuestra el progreso de China a pesar de los esfuerzos de Washington por restringir las exportaciones de tecnología.

Preocupaciones

El año pasado, los deepfakes políticos se extendieron por todo el mundo. En Moldavia, vídeos deepfakes imitaban a la presidenta del país, Maia Sandu, dando su discurso de dimisión.

Y en Sudáfrica, una deepfake del rapero Eminem apoyando a un partido de la oposición sudafricana se ha vuelto viral antes de las elecciones del país.

Las deepfakes también se utilizan cada vez más para cometer delitos financieros. Los consumidores son estafados por deepfakes de famosos que recomiendan inversiones y ofrecen oportunidades de inversión falsas, mientras que las empresas pierden millones de dólares a manos de imitadores de altos ejecutivos.

Según Deloitte, el contenido generado por IA contribuyó a más de 12 mil millones de dólares en pérdidas por fraude en 2023 y podría llegar a 40 mil millones de dólares en Estados Unidos en 2027.

El pasado febrero, cientos de personas de la comunidad de IA firmaron una carta exigiendo regulaciones más estrictas sobre los deepfakes. Si bien no existen leyes federales que penalicen los deepfakes en EE. UU., más de 10 estados han promulgado leyes contra la falsificación impulsada por IA.

Sin embargo, detectar deepfakes no es fácil. Aunque algunas plataformas de redes sociales y motores de búsqueda han implementado medidas para limitar su propagación, la cantidad de contenido deepfake en línea sigue creciendo a un ritmo alarmante.

En una encuesta realizada en mayo de 2024 por la empresa de verificación de identidad Jumio, el 60% de los participantes informaron haber encontrado un deepfake en el último año; el 72% de los encuestados dijeron que les preocupaba ser engañados por deepfakes a diario, mientras que la mayoría apoyó la aprobación de una legislación para abordar la proliferación de videos falsos generados por IA.

Google da luz verde al uso de IA en armas y tecnología de vigilancia . Google ha incumplido su promesa de no diseñar ni implementar herramientas de IA para su uso en armas y tecnología de vigilancia.