Wie funktionieren gefälschte KI-Bilder?
KI ist heutzutage allgegenwärtig – sogar im Krieg. Die Anwendungen künstlicher Intelligenz haben sich in diesem Jahr so stark verbessert, dass fast jeder mithilfe von KI-Generatoren Bilder erstellen kann, die zumindest auf den ersten Blick realistisch aussehen.
Ein von KI generiertes gefälschtes Foto des Krieges im Gazastreifen.
Dazu geben Nutzer Tools wie Midjourney oder Dall-E einfach ein paar Eingabeaufforderungen inklusive Spezifikationen und Informationen. Die KI-Tools wandeln die Text- oder auch Sprachaufforderungen dann in Bilder um.
Dieser Bildgenerierungsprozess basiert auf dem sogenannten maschinellen Lernen. Wenn ein Autor beispielsweise einen 70-jährigen Mann auf einem Fahrrad zeigen möchte, durchsucht er seine Datenbank nach passenden Begriffen für Bilder.
Basierend auf den verfügbaren Informationen generiert der KI-Algorithmus Bilder des älteren Radfahrers. Durch immer mehr Input und technische Updates werden diese Tools deutlich verbessert und lernen ständig dazu.
All dies wird auf Bilder im Zusammenhang mit dem Nahostkonflikt angewendet. In einem Konflikt, in dem die Emotionen so hochkochen, haben Fehlinformationen, auch über KI-Bilder verbreitet, enorme Auswirkungen, sagt KI-Experte Hany Farid.
Farid, Professor für digitale Analytik an der University of California in Berkeley, sagte, erbitterte Kämpfe seien der perfekte Nährboden für die Erstellung und Verbreitung gefälschter Inhalte sowie für das Schüren von Emotionen.
KI-Bilder des Israel-Hamas-Krieges
Mithilfe künstlicher Intelligenz erstellte Bilder und Videos haben die Desinformation im Zusammenhang mit dem Krieg in der Ukraine angeheizt, und dieser Trend setzt sich auch im Krieg zwischen Israel und der Hamas fort.
Experten zufolge lassen sich die in den sozialen Medien kursierenden KI-Bilder von Kriegen oft in zwei Kategorien einteilen. Die eine konzentriert sich auf menschliches Leid und weckt Empathie. Die andere ist künstliche Intelligenz, die Ereignisse übertreibt und dadurch Konflikte und eine Eskalation der Gewalt anheizt.
KI-generiertes gefälschtes Foto von Vater und Kind in den Trümmern im Gazastreifen.
Zur ersten Kategorie gehört beispielsweise das obige Foto eines Vaters und seiner fünf Kinder vor einem Trümmerhaufen. Es wurde auf X (früher Twitter) und Instagram mehrfach geteilt und hunderttausendfach angesehen.
Dieses Bild wurde von der Community, zumindest auf X, als Fälschung gekennzeichnet. Es ist an verschiedenen Fehlern und Unstimmigkeiten zu erkennen, die bei KI-Bildern üblich sind (siehe Bild oben).
Ähnliche Anomalien sind auch in dem gefälschten KI-Bild zu sehen, das unten auf X viral ging und angeblich eine palästinensische Familie zeigt, die gemeinsam auf den Ruinen isst.
KI-generiertes gefälschtes Foto einer palästinensischen Partei.
Ein weiteres Bild, das Soldaten zeigt, die israelische Flaggen schwenken, während sie durch eine Siedlung voller ausgebombter Häuser marschieren, fällt in die zweite Kategorie und soll Hass und Gewalt schüren.
Woher kommen solche KI-Bilder?
Die meisten von KI generierten Konfliktbilder werden auf Social-Media-Plattformen veröffentlicht, sind aber auch auf zahlreichen anderen Plattformen und Organisationen und sogar auf einigen Nachrichtenseiten verfügbar.
Der Softwarekonzern Adobe sorgt für Aufsehen, indem er sein Stockfoto-Angebot bis Ende 2022 um KI-generierte Bilder erweitert. In der Datenbank werden sie entsprechend gekennzeichnet.
Adobe bietet mittlerweile auch KI-Bilder des Nahost-Krieges zum Verkauf an – etwa Explosionen, protestierende Menschen oder Rauchschwaden hinter der Al-Aqsa-Moschee.
Adobe bietet KI-generierte Bilder der Kämpfe im Gazastreifen an.
Kritiker empfanden dies als beunruhigend, da einige Websites die Bilder weiterhin verwendeten, ohne sie als KI-generiert zu kennzeichnen. Beispielsweise wurde das Bild auf der „Newsbreak“-Seite ohne jeglichen Hinweis darauf veröffentlicht, dass es mithilfe von KI erstellt wurde.
Sogar der Wissenschaftliche Dienst des Europäischen Parlaments, der wissenschaftliche Arm des Europäischen Parlaments, illustrierte ein Online-Dokument zum Nahostkonflikt mit einem KI-Bild aus der Adobe-Datenbank – ohne es als KI-generiert zu kennzeichnen.
Das European Digital Media Observatory rät Journalisten und Medienschaffenden dringend, bei der Verwendung von KI-Bildern äußerst vorsichtig zu sein und rät von deren Einsatz ab, insbesondere bei der Berichterstattung über reale Ereignisse wie den Krieg im Gazastreifen.
Wie gefährlich sind KI-Bilder?
Die viralen KI-Inhalte und Bilder werden bei den Nutzern zwangsläufig ein ungutes Gefühl auslösen, was sie online finden. „Wenn wir in eine Welt eintreten, in der Bilder, Audio und Video manipuliert werden können , wird alles verdächtig“, erklärt Farid, Forscher an der UC Berkeley. „Man verliert das Vertrauen in alles, auch in die Wahrheit.“
Genau das ist im folgenden Fall passiert: Ein Bild der angeblich verkohlten Leiche eines israelischen Babys wurde vom israelischen Premierminister Benjamin Netanjahu und mehreren anderen Politikern in den sozialen Medien geteilt.
Der antiisraelische Influencer Jackson Hinkle behauptete später, das Bild sei mithilfe künstlicher Intelligenz erstellt worden. Hinkles Behauptung wurde in den sozialen Medien über 20 Millionen Mal aufgerufen und führte dort zu hitzigen Debatten.
Letztendlich erklärten viele Organisationen und Verifizierungstools, dass das Bild echt und Hinkles Behauptung falsch sei. Es ist jedoch klar, dass kein Tool den Nutzern helfen kann, ihr verlorenes Vertrauen einfach zurückzugewinnen!
Hoang Hai (laut DW)
[Anzeige_2]
Quelle
Kommentar (0)