Zespół programistów ByteDance twierdzi, że model wielomodalny o nazwie OmniHuman-1 potrafi tworzyć dynamiczne filmy przedstawiające postacie mówiące, śpiewające i poruszające się z „lepszą jakością w porównaniu do obecnie stosowanych metod tworzenia filmów”.

Technologia sztucznej inteligencji umożliwiająca tworzenie realistycznych obrazów, filmów i dźwięków, znana również jako „deepfake”, jest coraz częściej wykorzystywana w oszustwach i rozrywce.

ByteDance jest obecnie jedną z najpopularniejszych firm z branży sztucznej inteligencji w Chinach. Aplikacja Doubao tej firmy cieszy się największą popularnością wśród użytkowników z Chin kontynentalnych.

Mimo że OmniHuman-1 nie został jeszcze udostępniony szerszej publiczności, nagrania z próbkami szybko rozprzestrzeniły się szeroko.

Jedną z wyróżniających się demonstracji był 23-sekundowy film przedstawiający przemówienie Alberta Einsteina. TechCrunch opisał wyniki aplikacji jako „szokująco niesamowite” i „najbardziej realistyczne filmy deepfake jak dotąd”.

Twórcy twierdzą, że OmniHuman-1 potrzebuje tylko pojedynczego obrazu jako danych referencyjnych oraz danych dźwiękowych, np. mowy lub śpiewu, aby utworzyć film dowolnej długości.

Można dostosować liczbę klatek na sekundę w wyjściowym obrazie wideo, a także „proporcje ciała” postaci w nim występujących.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance jest obecnie jedną z najbardziej znanych firm zajmujących się sztuczną inteligencją w Chinach. Zdjęcie: TechCrunch

Co więcej, model sztucznej inteligencji, wyszkolony na 19 000 godzin materiałów wideo pochodzących z nieopublikowanych źródeł, jest w stanie edytować istniejące filmy, a nawet zmieniać ruchy ludzkiej ręki i stopy w przekonujący sposób.

Jednak ByteDance przyznało, że OmniHuman-1 nie jest idealny, ponieważ nadal ma problemy z przyjmowaniem niektórych póz, a „obrazy referencyjne niskiej jakości” nie stworzą najlepszej jakości filmu.

Nowy model sztucznej inteligencji firmy ByteDance jest dowodem postępu Chin, jaki osiągnęły pomimo wysiłków Waszyngtonu mających na celu ograniczenie eksportu technologii.

Obawy

W zeszłym roku polityczne deepfake'i rozprzestrzeniły się po całym świecie. W Mołdawii deepfake'i naśladowały prezydent kraju, Maię Sandu, wygłaszającą przemówienie rezygnacyjne.

W Republice Południowej Afryki w sieci pojawiło się fałszywe nagranie przedstawiające rapera Eminema popierającego południowoafrykańską partię opozycyjną tuż przed wyborami w tym kraju.

Deepfake’i są coraz częściej wykorzystywane do popełniania przestępstw finansowych. Konsumenci padają ofiarą deepfake’ów przedstawiających celebrytów, którzy rekomendują inwestycje i oferują fałszywe możliwości inwestycyjne, a firmy tracą miliony dolarów przez osoby podszywające się pod kadrę kierowniczą wyższego szczebla.

Według Deloitte, treści generowane przez sztuczną inteligencję przyczyniły się do strat spowodowanych oszustwami w wysokości ponad 12 miliardów dolarów w 2023 r. i mogą osiągnąć 40 miliardów dolarów w USA do 2027 r.

W lutym ubiegłego roku setki osób ze środowiska AI podpisało list wzywający do zaostrzenia przepisów dotyczących deepfake'ów. Chociaż w USA nie ma federalnych przepisów kryminalizujących deepfake'i, ponad 10 stanów uchwaliło przepisy przeciwko fałszerstwom opartym na sztucznej inteligencji.

Jednak wykrywanie deepfake'ów nie jest łatwe. Chociaż niektóre platformy mediów społecznościowych i wyszukiwarki wdrożyły środki ograniczające ich rozprzestrzenianie, ilość treści deepfake w internecie wciąż rośnie w zastraszającym tempie.

W badaniu przeprowadzonym w maju 2024 r. przez firmę weryfikującą tożsamość Jumio, 60% uczestników stwierdziło, że w ciągu ostatniego roku natknęło się na deepfake'a; 72% respondentów stwierdziło, że obawia się, że codziennie padnie ofiarą deepfake'a, podczas gdy większość poparła uchwalenie przepisów mających na celu rozwiązanie problemu rozprzestrzeniania się fałszywych filmów generowanych przez sztuczną inteligencję.

Google daje zielone światło na wykorzystanie sztucznej inteligencji w broni i technologii nadzoru . Google złamało obietnicę, że nie będzie projektować i wdrażać narzędzi opartych na sztucznej inteligencji do wykorzystania w broni i technologii nadzoru.