Aktualisiert am: 31.03.2024 05:42:42
Laut einem Blogbeitrag von OpenAI, in dem die Ergebnisse eines Tests der „Voice Engine“ im kleinen Maßstab veröffentlicht werden, kann das Tool im Wesentlichen die Stimme einer Person anhand einer 15 Sekunden langen Audioprobe klonen.
Foto: OpenAI
OpenAI hat gerade ein Tool zum Klonen von Stimmen vorgestellt, das jedoch streng kontrolliert wird, bis Sicherheitsvorkehrungen getroffen werden, um zu verhindern, dass Zuhörer durch Audiofälschungen in die Irre geführt werden.
OpenAI räumt ein, dass die Sprachgenerierung insbesondere in einem Wahljahr ernsthafte Risiken birgt. Das Unternehmen sagte jedoch, es arbeite mit nationalen und internationalen Partnern aus Regierung, Medien, Unterhaltung, Bildung , Zivilgesellschaft und anderen Sektoren zusammen, um Feedback zu sammeln, damit dieses Tool sicher erstellt und entwickelt werden könne.
OpenAI gibt an, eine Reihe von Sicherheitsmaßnahmen implementiert zu haben, darunter die Kennzeichnung des Ursprungs aller von Voice Engine generierten Audiodaten und die aktive Überwachung der Verwendung des Tools.
Desinformationsforscher sind besorgt über die Risiken eines massiven Missbrauchs von KI-gestützten Apps in einem entscheidenden Wahljahr, da Tools zum Klonen von Stimmen immer günstiger, benutzerfreundlicher und schwerer zu verfolgen sind.
Ein Beispiel hierfür ist ein von einer künstlichen Intelligenz generierter Anruf, der die Idee eines Lobbyisten des Kongressabgeordneten Dean Phillips aus Minnesota hatte und der sich anhört, als würde Präsident Joe Biden die Menschen dazu auffordern, bei den Vorwahlen in New Hampshire im Januar 2024 nicht ihre Stimme abzugeben.
Der Vorfall hat bei Experten die Sorge ausgelöst, dass es im Rennen um das Weiße Haus 2024 und bei anderen wichtigen globalen Wahlen in diesem Jahr zu einer Welle von durch KI generierten Deepfakes (gefälschte Audio- oder Videodateien ) als Fehlinformation kommen könnte.
Laut VNA/NDO
Quelle
Kommentar (0)