За словами команди розробників ByteDance, омнімодальна модель під назвою OmniHuman-1 може створювати динамічні відео персонажів, які розмовляють, співають та рухаються, з «вищою якістю порівняно з сучасними методами створення відео».

Технологія штучного інтелекту, яка створює реалістичні зображення, відео та аудіо, також відома як «діпфейк», все частіше використовується в шахрайстві та розвагах.

ByteDance наразі є однією з найпопулярніших компаній у сфері штучного інтелекту в Китаї. Додаток компанії Doubao є найпопулярнішим серед користувачів з материкового Китаю.

Хоча OmniHuman-1 ще не був широко представлений публіці, відео-зразки швидко поширилися.

Одним із видатних демо-роликів було 23-секундне відео, на якому Альберт Ейнштейн виголошує промову. TechCrunch описав результати роботи застосунку як «шокуюче дивовижні» та «найреалістичніші відео з діпфейками на сьогоднішній день».

Розробники кажуть, що OmniHuman-1 потребує лише одного зображення як опорних даних разом із аудіоданими, такими як мова чи спів, для створення відео будь-якої тривалості.

Частоту кадрів вихідного відео можна регулювати, як і «пропорції тіла» персонажів у ньому.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance наразі є однією з найвідоміших компаній у сфері штучного інтелекту в Китаї. Фото: TechCrunch

Крім того, модель штучного інтелекту, навчена на 19 000 годинах відеоконтенту з неопублікованих джерел, здатна редагувати існуючі відео та навіть переконливо змінювати рухи рук і ніг людини.

Однак, ByteDance також визнав, що OmniHuman-1 не ідеальний, оскільки він все ще має проблеми з певними позами, і що «низькоякісні опорні зображення» не забезпечать найкращого відео.

Нова модель штучного інтелекту ByteDance демонструє прогрес Китаю, незважаючи на зусилля Вашингтона обмежити експорт технологій.

Проблеми

Минулого року політичні діпфейки поширилися по всьому світу. У Молдові діпфейкові відео імітували президента країни Майю Санду під час її промови про відставку.

А в Південній Африці напередодні виборів у країні став вірусним діпфейк, на якому репер Емінем підтримує південноафриканську опозиційну партію.

Діпфейки також дедалі частіше використовуються для скоєння фінансових злочинів. Споживачів обманюють за допомогою діпфейків знаменитостей, які рекомендують інвестиції та пропонують фальшиві інвестиційні можливості, тоді як компанії втрачають мільйони доларів через імітацію керівників вищої ланки.

За даними Deloitte, контент, створений штучним інтелектом, спричинив збитки від шахрайства на суму понад 12 мільярдів доларів у 2023 році та може сягнути 40 мільярдів доларів у США до 2027 року.

Минулого лютого сотні людей у ​​спільноті штучного інтелекту підписали листа із закликом до суворішого регулювання діпфейків. Хоча в США немає федеральних законів, які криміналізують діпфейки, понад 10 штатів прийняли закони проти підробки за допомогою штучного інтелекту.

Однак виявити діпфейки непросто. Хоча деякі платформи соціальних мереж та пошукові системи запровадили заходи для обмеження їх поширення, кількість діпфейкового контенту в Інтернеті все ще зростає тривожними темпами.

У травні 2024 року в опитуванні компанії Jumio з перевірки особи 60% учасників повідомили, що стикалися з діпфейком протягом минулого року; 72% респондентів сказали, що турбуються про те, що їх щодня обманюють діпфейки, тоді як більшість підтримала прийняття законодавства для боротьби з поширенням фейкових відео, створених штучним інтелектом.

Google «схвалює» використання штучного інтелекту в технологіях зброї та спостереження . Google порушив свою обіцянку не розробляти та не впроваджувати інструменти штучного інтелекту для використання в технологіях зброї та спостереження.