Le modèle omnimodal, appelé OmniHuman-1, peut créer des vidéos dynamiques de personnages parlant, chantant et se déplaçant avec une « qualité supérieure aux méthodes de création vidéo actuelles », selon l'équipe de développement de ByteDance.

La technologie d'IA qui crée des images, des vidéos et des sons réalistes, également connue sous le nom de « deepfake », est de plus en plus utilisée dans les arnaques et le divertissement.

ByteDance est actuellement l'une des entreprises d'IA les plus en vogue en Chine. Son application Doubao est la plus populaire auprès des utilisateurs de Chine continentale.

Bien qu'OmniHuman-1 n'ait pas encore été largement diffusé au grand public, des extraits vidéo se sont rapidement répandus.

L'une des démonstrations les plus marquantes était une vidéo de 23 secondes montrant Albert Einstein en train de prononcer un discours. TechCrunch a qualifié le résultat de l'application d'« incroyablement impressionnant » et de « vidéos deepfake les plus réalistes à ce jour ».

Les développeurs affirment qu'OmniHuman-1 n'a besoin que d'une seule image comme donnée de référence, ainsi que de données audio telles que la parole ou le chant, pour créer une vidéo de n'importe quelle durée.

La fréquence d'images de la vidéo de sortie peut être ajustée, de même que les « proportions corporelles » des personnages qui la composent.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance est actuellement l'une des entreprises d'IA les plus importantes de Chine. Photo : TechCrunch

De plus, le modèle d'IA, entraîné sur 19 000 heures de contenu vidéo provenant de sources non publiées, est capable de modifier des vidéos existantes et même de modifier les mouvements des mains et des pieds humains avec un degré convaincant.

Cependant, ByteDance a également admis qu'OmniHuman-1 n'est pas parfait, car il a encore des difficultés avec certaines poses, et que des « images de référence de faible qualité » ne permettront pas de produire la meilleure vidéo.

Le nouveau modèle d'IA de ByteDance démontre les progrès de la Chine malgré les efforts de Washington pour restreindre les exportations de technologies.

Préoccupations

L'année dernière, les deepfakes politiques se sont répandus dans le monde entier. En Moldavie, des vidéos deepfake ont imité le discours de démission de la présidente du pays, Maia Sandu.

En Afrique du Sud, une vidéo truquée montrant le rappeur Eminem soutenant un parti d'opposition sud-africain est devenue virale à l'approche des élections du pays.

Les deepfakes sont de plus en plus utilisés pour commettre des délits financiers. Des consommateurs sont victimes d'escroqueries via des deepfakes de célébrités recommandant des investissements et proposant de fausses opportunités d'investissement, tandis que des entreprises perdent des millions de dollars à cause d'usurpateurs d'identité se faisant passer pour leurs dirigeants.

Selon Deloitte, le contenu généré par l'IA a contribué à plus de 12 milliards de dollars de pertes dues à la fraude en 2023 et pourrait atteindre 40 milliards de dollars aux États-Unis d'ici 2027.

En février dernier, des centaines de personnes de la communauté de l'IA ont signé une lettre demandant un encadrement plus strict des deepfakes. Bien qu'il n'existe aucune loi fédérale criminalisant les deepfakes aux États-Unis, plus de dix États ont adopté des lois contre la falsification de données par l'IA.

Cependant, détecter les deepfakes n'est pas chose aisée. Bien que certaines plateformes de médias sociaux et certains moteurs de recherche aient mis en place des mesures pour limiter leur diffusion, la quantité de contenus deepfake en ligne continue de croître à un rythme alarmant.

Dans un sondage réalisé en mai 2024 par la société de vérification d'identité Jumio, 60 % des participants ont déclaré avoir été confrontés à un deepfake au cours de l'année précédente ; 72 % des personnes interrogées ont déclaré craindre d'être dupées quotidiennement par des deepfakes, tandis qu'une majorité était favorable à l'adoption d'une législation visant à lutter contre la prolifération de fausses vidéos générées par l'IA.

Google « donne son feu vert » à l’utilisation de l’IA dans les technologies d’armement et de surveillance . Google a renié sa promesse de ne pas concevoir ni déployer d’outils d’IA destinés aux technologies d’armement et de surveillance.