Südkoreanische Beamte sagten am 27. April, dass die Nationale Wahlkommission des Landes (NEC) ein vom Nationalen Forensischen Dienst (NFS) entwickeltes Modell künstlicher Intelligenz (KI) zur Erkennung gefälschter Nachrichten eingeführt habe, um die Verbreitung gefälschter Deepfake -Videos während der vorgezogenen Präsidentschaftswahlen am 3. Juni zu verhindern.
Dieses KI-Modell heißt Aegis, benannt nach dem Schild, den Zeus in der griechischen Mythologie trug. NEC wird Aegis verwenden, um hochentwickelte, von KI erstellte Deepfake-Videos zu erkennen, die mit bloßem Auge nur schwer zu erkennen sind. Aegis wurde gemeinsam von NFS und dem Korea Electronics Technology Institute (KETI) entwickelt.
NFS führt seit April letzten Jahres im Rahmen eines von KETI organisierten und vom Institute for Information and Communications Technology Planning & Evaluation finanzierten Projekts Forschungsarbeiten durch. Das Projekt trägt den Titel „Selbstentwickelnde Technologie zur Erkennung von Deepfakes zur Verhinderung sozialer Nebenwirkungen durch KI.“
Aegis wurde im zweiten Jahr des Projekts unter Beteiligung der Korea National Police University, KAIST, Cleon (einem Unternehmen zur Erstellung von Gesichtern und Stimmen mithilfe künstlicher Intelligenz) und Wysiwyg Studios (einer Filmproduktionsfirma) entwickelt. Aegis ist für die Erkennung der schwierigsten Deepfake-Videos optimiert.
Nach dem überarbeiteten südkoreanischen Gesetz über die Wahl des öffentlichen Dienstes, das im Januar 2024 in Kraft tritt, ist es illegal, KI-generierte Deepfake-Videos für Wahlkampfzwecke zu produzieren oder zu verbreiten. In jüngster Zeit häufen sich im Internet jedoch die Deepfake-Videos führender Präsidentschaftskandidaten, von denen die meisten diffamierende oder verleumderische Inhalte enthalten. Beispielsweise Deepfake-Videos des Kandidaten der Demokratischen Partei (DP), Lee Jae Myung, der eine Häftlingsuniform trägt, oder des Kandidaten der People’s Power Party (PPP), Han Dong Hoon, der seine Perücke abnimmt.
Am 9. April hat NEC eine Task Force zu gefälschten KI-Deepfakes eingerichtet, die auf einem dreistufigen Erkennungsprozess basiert. Dementsprechend wird der Supervisor die Videos zunächst visuell prüfen. Wenn ein Video schwer zu unterscheiden ist, wird es mithilfe eines KI-Modells wie Aegis analysiert und anschließend von KI-Experten ausgewertet.
„Wir verwenden hauptsächlich Aegis von NFS wegen seiner hohen Erkennungsgenauigkeit, führen aber auch Quervergleiche mit anderen Modellen durch“, sagte ein NEC-Vertreter.
Aegis ist darauf ausgelegt, Ausgaben zu erkennen, die mit der Diffusionsmethode erzeugt werden, einer der neuesten Methoden zur KI-Bilderzeugung. Es gibt zwei Hauptmethoden zur KI-Bildgenerierung, darunter Generative Adversarial Networks (GANs) und Diffusionsmodelle. Bei GANs konkurrieren zwei neuronale Netzwerke um die schnelle Bilderzeugung. Die resultierenden Bilder sind jedoch häufig verzerrt und daher leichter zu erkennen.
Im Gegensatz dazu verwenden neuere Bildgeneratoren wie Midjourney und DALL-E von OpenAI einen Diffusionsansatz (Hinzufügen von künstlichem Rauschen zu einem Bild und anschließendes Entfernen des Rauschens, um ein hochauflösendes, qualitativ hochwertiges Bild zu erzeugen). Daher ist es viel schwieriger, das mit der Diffusionsmethode erzeugte Bild vom realen Bild zu unterscheiden, wenn nur herkömmliche Erkennungstechniken verwendet werden.
Aegis wurde verbessert, um sogar Deepfake-Videos zu erkennen, die mit Diffusionsmethoden erstellt wurden.
„Wir rüsten Aegis nicht nur aus, um Deepfakes und Deepfakes zu erkennen, sondern auch, um zu analysieren, ob die erstellten Inhalte böswilligen Zwecken dienen“, sagte ein NFS-Beamter./.
Quelle: https://www.vietnamplus.vn/han-quoc-su-dung-tri-tue-nhan-tao-phat-hien-video-gia-mao-ve-bau-cu-post1035586.vnp
Kommentar (0)