Das Büro des Generalstaatsanwalts von New Hampshire gab am Montag bekannt, dass es eine mögliche Wahlmanipulation untersucht, nachdem es Beschwerden über eine falsche Stimme gegeben hatte, die genau wie die von Präsident Joe Biden klang und die Wähler dazu aufforderte, bei den Vorwahlen des Staates nicht ihre Stimme abzugeben.
Forscher warnten außerdem vor der Verwendung von Deepfake-Audiodateien zur Nachahmungvon Politikern und Staatsoberhäuptern. Prominente Fälle ereigneten sich 2023 in Großbritannien, Indien, Nigeria, Sudan, Äthiopien und der Slowakei.
Eine Person nimmt an den Vorwahlen in New Hampshire, USA, teil. Foto: Getty
Deepfake-Audio ist zu einer beliebten Form der Desinformation geworden, sagen Experten. Dies ist auf die Entwicklung günstiger und effektiver KI-Tools von Start-ups zurückzuführen. Microsoft hat außerdem ein neues KI-Modell entwickelt, das eine Stimme aus nur drei Sekunden Aufnahmezeit reproduzieren kann.
„Wenn es um visuelle Manipulation geht, kennt jeder Photoshop oder weiß zumindest, dass es existiert“, sagte Henry Ajder, KI- und Deepfake-Experte und Berater von Adobe, Meta und EY. „Es gibt kaum ein Bewusstsein dafür, wie Audio manipuliert werden kann. Das macht uns meiner Meinung nach wirklich angreifbar.“
Im September entdeckte NewsGuard, ein System zur Bewertung der Qualität und Vertrauenswürdigkeit von Nachrichtenseiten, ein Netzwerk von TikTok-Konten, die sich als seriöse Nachrichtenseiten ausgaben und KI-generierte Inhalte nutzten, um Verschwörungstheorien und politische Falschinformationen zu verbreiten. Deepfake-Aufnahmen, darunter die Stimme des ehemaligen US-Präsidenten Barack Obama, wurden Hunderte Millionen Mal angesehen.
Die gefälschten Voiceovers scheinen von einem Tool des von Andreessen Horowitz unterstützten Unternehmens ElevenLabs generiert worden zu sein, und die Clips wurden laut NewsGuard Hunderte Millionen Mal angesehen.
„Über 99 % der Benutzer auf unserer Plattform erstellen interessante, kreative und nützliche Inhalte, aber wir sind uns bewusst, dass es Fälle von Missbrauch gibt, und wir haben kontinuierlich Schutzmaßnahmen entwickelt und eingeführt, um diese einzuschränken“, sagte ElevenLabs.
ElevenLabs, vor zwei Jahren von den ehemaligen Google- und Palantir-Mitarbeitern Piotr Dabkowski und Mati Staniszewski gegründet, bietet rudimentäre KI-Tools zur Audiogenerierung kostenlos per Mausklick an. Die Abonnements reichen von 1 bis 330 US-Dollar pro Monat und mehr für diejenigen, die komplexere Dienste wünschen.
Im vergangenen Jahr warnten US-Geheimdienste in einem Bericht, dass „personalisierte KI-Betrügereien aufgrund der Veröffentlichung hochentwickelter und gut trainierter KI-Modelle zum Klonen von Stimmen erheblich zugenommen haben“.
Neben finanziell motivierten Betrügereien schlagen politische Experten nun Alarm vor viralen Deepfake-Audioclips sowie deren Verwendung für Robocalls oder Kampagnen. „Man kann eine mächtige, weitverbreitete Desinformationskampagne aufbauen, indem man gezielt auf Telefone zielt“, sagte AJ Nash, Vizepräsident und Distinguished Intelligence Fellow der Cybersicherheitsgruppe ZeroFox.
Einige dieser Unternehmen haben proaktiv andere Wege gefunden, um Fehlinformationen zu bekämpfen. Microsoft hat eine Ethikerklärung veröffentlicht, in der Nutzer aufgefordert werden, jeden Missbrauch seines KI-Audiotools zu melden. ElevenLabs hat eigene Erkennungstools entwickelt, um die von seinem System generierten Audioaufnahmen zu identifizieren.
Während der Wahlen in Nigeria im Jahr 2023 verbreitete sich in den sozialen Medien ein mithilfe künstlicher Intelligenz manipulierter Clip, der „angeblich suggerierte, ein Oppositionskandidat plane, die Wahl zu manipulieren“, so die Menschenrechtsorganisation Freedom House.
In der Slowakei verbreitete sich nur wenige Tage vor der Präsidentschaftswahl im September eine gefälschte Audioaufnahme des Oppositionskandidaten Michal Šimečka, der offenbar plante, die Wahl zu manipulieren.
„Der Deepfake aus New Hampshire erinnert uns daran, wie vielfältig Deepfakes die Menschen verwirren und betrügen können“, sagte Robert Weissman, Präsident der gemeinnützigen Verbraucherschutzorganisation Public Citizen. „Der Moment des politischen Deepfakes ist gekommen. Die Politik muss schnell handeln und Schutzmaßnahmen ergreifen, sonst droht uns Wahlchaos.“
Mai Anh (laut FT)
[Anzeige_2]
Quelle
Kommentar (0)