Das omnimodale Modell mit dem Namen OmniHuman-1 kann laut dem Entwicklerteam von ByteDance dynamische Videos von sprechenden, singenden und sich bewegenden Charakteren in „überlegener Qualität im Vergleich zu den derzeitigen Videoproduktionsmethoden“ erstellen.

KI-Technologie, die realistische Bilder, Videos und Audiodateien erzeugt, auch bekannt als „Deepfake“, wird zunehmend für Betrug und Unterhaltung eingesetzt.

ByteDance zählt aktuell zu den angesagtesten KI-Unternehmen in China. Die App Doubao des Unternehmens ist bei Nutzern auf dem chinesischen Festland am beliebtesten.

Obwohl OmniHuman-1 noch nicht allgemein für die Öffentlichkeit freigegeben wurde, haben sich Beispielvideos schnell weit verbreitet.

Eine besonders beeindruckende Demo war ein 23-sekündiges Video, das Albert Einstein bei einer Rede zeigte. TechCrunch beschrieb die Ergebnisse der App als „verblüffend“ und als „die bisher realistischsten Deepfake-Videos“.

Die Entwickler geben an, dass OmniHuman-1 nur ein einziges Bild als Referenzdaten sowie Audiodaten wie Sprache oder Gesang benötigt, um ein Video beliebiger Länge zu erstellen.

Die Bildrate des Ausgabevideos kann angepasst werden, ebenso wie die „Körperproportionen“ der darin dargestellten Figuren.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance zählt aktuell zu den führenden KI-Unternehmen in China. Foto: TechCrunch

Darüber hinaus ist das KI-Modell, das mit 19.000 Stunden Videomaterial aus unveröffentlichten Quellen trainiert wurde, in der Lage, bestehende Videos zu bearbeiten und sogar menschliche Hand- und Fußbewegungen überzeugend zu verändern.

ByteDance räumte jedoch auch ein, dass OmniHuman-1 nicht perfekt sei, da es bei bestimmten Posen immer noch Schwierigkeiten habe, und dass „Referenzbilder von geringer Qualität“ nicht das beste Video ergeben würden.

Das neue KI-Modell von ByteDance beweist Chinas Fortschritte trotz der Bemühungen Washingtons, Technologieexporte einzuschränken.

Anliegen

Im vergangenen Jahr verbreiteten sich politische Deepfakes weltweit. In Moldawien ahmten Deepfake-Videos die Rücktrittsrede der Präsidentin Maia Sandu nach.

Und in Südafrika ging ein Deepfake-Video viral, das den Rapper Eminem bei der Unterstützung einer südafrikanischen Oppositionspartei zeigt – kurz vor den Wahlen des Landes.

Deepfakes werden zunehmend auch für Finanzkriminalität eingesetzt. Verbraucher werden durch Deepfakes von Prominenten betrogen, die Investitionen empfehlen und gefälschte Investitionsmöglichkeiten anbieten, während Unternehmen Millionen von Dollar an Betrüger verlieren, die sich als Führungskräfte ausgeben.

Laut Deloitte trugen KI-generierte Inhalte im Jahr 2023 zu Betrugsverlusten von über 12 Milliarden US-Dollar bei und könnten bis 2027 in den USA 40 Milliarden US-Dollar erreichen.

Im vergangenen Februar unterzeichneten Hunderte aus der KI-Community einen Brief, in dem sie strengere Regulierungen für Deepfakes forderten. Zwar gibt es in den USA keine Bundesgesetze, die Deepfakes unter Strafe stellen, doch haben mehr als zehn Bundesstaaten Gesetze gegen KI-gestützte Fälschungen erlassen.

Die Erkennung von Deepfakes ist jedoch nicht einfach. Obwohl einige Social-Media-Plattformen und Suchmaschinen Maßnahmen ergriffen haben, um deren Verbreitung einzuschränken, nimmt die Menge an Deepfake-Inhalten im Internet weiterhin alarmierend schnell zu.

In einer Umfrage des Identitätsverifizierungsunternehmens Jumio vom Mai 2024 gaben 60 % der Teilnehmer an, im vergangenen Jahr auf einen Deepfake gestoßen zu sein; 72 % der Befragten gaben an, sich täglich Sorgen darüber zu machen, von Deepfakes getäuscht zu werden, während eine Mehrheit die Verabschiedung von Gesetzen zur Bekämpfung der Verbreitung von KI-generierten gefälschten Videos befürwortete.

Google gibt grünes Licht für den Einsatz von KI in Waffensystemen und Überwachungstechnologien . Damit hat Google sein Versprechen gebrochen, keine KI-Werkzeuge für den Einsatz in Waffensystemen und Überwachungstechnologien zu entwickeln und einzusetzen.