По словам команды разработчиков ByteDance, омнимодальная модель, получившая название OmniHuman-1, способна создавать динамичные видеоролики с персонажами, которые говорят, поют и двигаются, обладая «превосходным качеством по сравнению с существующими методами создания видео».

Технология искусственного интеллекта, создающая реалистичные изображения, видео и аудио, также известная как «дипфейк», все чаще используется в мошеннических схемах и индустрии развлечений.

В настоящее время ByteDance — одна из самых перспективных компаний в сфере искусственного интеллекта в Китае. Приложение Doubao этой компании пользуется наибольшей популярностью среди пользователей материкового Китая.

Хотя OmniHuman-1 еще не был широко представлен публике, фрагменты видео быстро распространились по всему миру.

Одним из самых ярких примеров демонстрации стало 23-секундное видео, в котором Альберт Эйнштейн произносит речь. Издание TechCrunch описало результат работы приложения как «шокирующе потрясающий» и «самые реалистичные дипфейк-видео на сегодняшний день».

Разработчики утверждают, что OmniHuman-1 достаточно одного изображения в качестве эталонных данных, а также аудиоданных, таких как речь или пение, для создания видеоролика любой длины.

Можно регулировать частоту кадров выходного видео, а также «пропорции тела» персонажей в нем.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
В настоящее время ByteDance — одна из самых prominent компаний в Китае, занимающихся разработкой искусственного интеллекта. Фото: TechCrunch

Кроме того, модель искусственного интеллекта, обученная на 19 000 часах видеоконтента из неопубликованных источников, способна редактировать существующие видеоролики и даже убедительно изменять движения рук и ног человека.

Однако компания ByteDance также признала, что OmniHuman-1 не идеален, поскольку у него все еще возникают проблемы с некоторыми позами, и что «низкокачественные эталонные изображения» не позволят получить наилучшее видео.

Новая модель искусственного интеллекта от ByteDance демонстрирует прогресс Китая, несмотря на попытки Вашингтона ограничить экспорт технологий.

Обеспокоенность

В прошлом году политические дипфейки распространились по всему миру. В Молдове дипфейк-видео имитировали речь президента страны Майи Санду, произнесенную ею в связи с отставкой.

А в Южной Африке в преддверии выборов в стране вирусную популярность приобрел дипфейк, на котором рэпер Эминем поддерживает оппозиционную партию.

Дипфейки также все чаще используются для совершения финансовых преступлений. Потребителей обманывают с помощью дипфейков, на которых знаменитости рекомендуют инвестиции и предлагают фальшивые инвестиционные возможности, а компании теряют миллионы долларов из-за выдающих себя за высокопоставленных руководителей.

По данным Deloitte, контент, созданный с помощью ИИ, стал причиной мошеннических убытков на сумму более 12 миллиардов долларов в 2023 году и может достичь 40 миллиардов долларов в США к 2027 году.

В феврале прошлого года сотни людей из сообщества разработчиков ИИ подписали письмо с призывом к ужесточению регулирования дипфейков. Хотя в США нет федеральных законов, криминализирующих дипфейки, более 10 штатов приняли законы против подделок, созданных с помощью ИИ.

Однако обнаружить дипфейки непросто. Хотя некоторые социальные сети и поисковые системы приняли меры по ограничению их распространения, количество дипфейкового контента в интернете продолжает расти с пугающей скоростью.

В ходе опроса, проведенного в мае 2024 года компанией Jumio, занимающейся проверкой личности, 60% участников сообщили о том, что сталкивались с дипфейками в течение последнего года; 72% респондентов заявили, что ежедневно опасаются быть обманутыми дипфейками, а большинство поддержало принятие законодательства, направленного на борьбу с распространением поддельных видеороликов, созданных с помощью ИИ.

Google дал зеленый свет использованию ИИ в вооружении и технологиях наблюдения . Google нарушил свое обещание не разрабатывать и не внедрять инструменты ИИ для использования в вооружении и технологиях наблюдения.