KI-gestützte Deepfakes, als reale Kampfszenen getarnte Videospielaufnahmen und von Chatbots erzeugte Fehlinformationen – all diese Formen technologiegestützter Fehlinformationen verzerren den Israel-Iran-Konflikt massiv und schüren einen Narrativkrieg in den sozialen Medien, der die Fakten verschleiert.
Der Informationskrieg, der parallel zu den Gefechten vor Ort stattfindet – ausgelöst durch israelische Angriffe auf iranische Atomanlagen und die militärische Führung – hat eine tiefe digitale Krise in einer Ära sich rasant entwickelnder KI-Werkzeuge offenbart, die die Grenze zwischen Wahrheit und Fälschung verwischen.
Experten betonen, dass die explosionsartige Zunahme von Desinformation in Konflikten den dringenden Bedarf an robusteren Erkennungs- und Überprüfungsinstrumenten verdeutlicht hat. Besorgniserregend ist, dass große Technologieplattformen diese Schutzmaßnahmen lockern, indem sie die Inhaltsmoderation reduzieren und weniger auf Faktenchecker setzen.

Ken Jon Miyachi, Gründer des in Austin ansässigen Unternehmens BitMindAI, erklärte gegenüber Reportern, dass die Welt einen sprunghaften Anstieg KI-generierter Desinformation erlebe, insbesondere im Zusammenhang mit dem Iran-Israel-Konflikt. Diese Tools würden eingesetzt, um die öffentliche Meinung zu manipulieren und spaltende oder falsche Narrative in einem beispiellosen Ausmaß und mit beispielloser Raffinesse zu verbreiten.
GetReal Security, ein US-amerikanisches Unternehmen, das sich auf die Erkennung manipulierter Medien spezialisiert hat, hat ebenfalls eine Welle gefälschter Videos im Zusammenhang mit dem Israel-Iran-Konflikt identifiziert.
Das Unternehmen verknüpft die visuell sehr eindrucksvollen Videos – die schreckliche Szenen von durch den Konflikt beschädigten israelischen Flugzeugen und Gebäuden sowie von auf Anhängern montierten iranischen Raketen zeigen – mit Googles KI-Generator Veo 3, der für seine Fähigkeit bekannt ist, hyperrealistische Bilder zu erzeugen.
Hany Farid, Mitbegründer von GetReal Security und Professor an der University of California, Berkeley (USA), gab einen kleinen Tipp zur Erkennung von KI-generierten gefälschten Bildern: Veo 3-Videos sind in der Regel 8 Sekunden lang oder eine Kombination aus Clips ähnlicher Länge.
„Diese Acht-Sekunden-Grenze beweist natürlich nicht, dass ein Video gefälscht ist, aber sie sollte ein guter Grund für Sie sein, innezuhalten und die Informationen zu überprüfen, bevor Sie sie teilen“, betonte er.
Laut Herrn Miyachi, einem Experten bei BitMindAI, spiegelt die aktuelle Situation der Verbreitung falscher und gefälschter Inhalte im Internet eine tiefer liegende Krise wider – den Vertrauensverlust in digitale Informationen.
Angesichts dieser Situation betonte er die Notwendigkeit, effektivere Instrumente zur Erkennung von Falschmeldungen zu entwickeln, die Medienkompetenz in der Gesellschaft zu verbessern und die verantwortungsvolle Rolle von Technologieplattformen bei der Aufrechterhaltung der Transparenz und des gesunden Charakters öffentlicher Diskussionen zu fördern.
Quelle: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Kommentar (0)