Künstliche Intelligenz (KI)-Deepfakes, als reale Kampfszenen getarnte Videospielaufnahmen und von Chatbots generierte Fehlinformationen – all diese Formen technisch ermöglichter Fehlinformation verzerren den Israel-Iran-Konflikt massiv. Sie schüren einen narrativen Krieg auf Social-Media-Plattformen, der die Fakten verdreht.
Der Informationskrieg, der parallel zu den Gefechten vor Ort stattfindet – ausgelöst durch israelische Angriffe auf die iranischen Atomanlagen und die Militärführung – hat in einer Ära sich rasch weiterentwickelnder KI-Tools, die die Grenze zwischen Wahrheit und Lüge verwischen, eine tiefe digitale Krise offengelegt.
Experten zufolge hat die explosionsartige Zunahme von Desinformation in Konflikten die dringende Notwendigkeit robusterer Erkennungs- und Verifizierungsinstrumente verdeutlicht. Beunruhigend ist, dass große Technologieplattformen diese Schutzmaßnahmen lockern, indem sie die Inhaltsmoderation einschränken und die Abhängigkeit von Faktenprüfern verringern.

Ken Jon Miyachi, Gründer von BitMindAI mit Sitz in Austin, sagte gegenüber Reportern, die Welt erlebe einen Anstieg von KI-generierten Falschinformationen, insbesondere im Zusammenhang mit dem Iran-Israel-Konflikt. Diese Tools werden eingesetzt, um die öffentliche Wahrnehmung zu manipulieren und verstärken oft spaltende oder falsche Narrative in beispiellosem Ausmaß und mit beispielloser Raffinesse.
Auch GetReal Security, ein auf die Erkennung manipulierter Medien spezialisiertes US-Unternehmen, hat eine Welle gefälschter Videos im Zusammenhang mit dem Israel-Iran-Konflikt identifiziert.
Das Unternehmen verknüpft die stark visuellen Videos – die schreckliche Szenen von durch den Konflikt beschädigten israelischen Flugzeugen und Gebäuden sowie auf Anhängern montierten iranischen Raketen zeigen – mit dem KI-Generator Veo 3 von Google, der für seine Fähigkeit bekannt ist, hyperrealistische Bilder zu erzeugen.
Hany Farid, Mitbegründer von GetReal Security und Professor an der University of California, Berkeley (USA), gab einen kleinen Tipp zum Erkennen gefälschter, von KI erstellter Bilder: Veo 3-Videos sind normalerweise 8 Sekunden lang oder eine Kombination von Clips ähnlicher Länge.
„Dieses Acht-Sekunden-Limit beweist natürlich nicht, dass ein Video gefälscht ist, aber es sollte ein guter Grund für Sie sein, innezuhalten und die Informationen zu überprüfen, bevor Sie es teilen“, betonte er.
Laut Herrn Miyachi, einem Experten bei BitMindAI, spiegelt die aktuelle Situation der Verbreitung falscher und gefälschter Inhalte im Internet eine tiefere Krise wider – den Verlust des Vertrauens in digitale Informationen.
Angesichts dieser Situation betonte er die Notwendigkeit, wirksamere Instrumente zur Erkennung gefälschter Inhalte zu entwickeln, die Medienkompetenz in der Gesellschaft zu verbessern und die verantwortungsvolle Rolle von Technologieplattformen bei der Aufrechterhaltung der Transparenz und Gesundheit öffentlicher Diskussionen zu fördern./.
Quelle: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp
Kommentar (0)