Gefälschte Promi-Fotos sind weit verbreitet
Es war noch nie so einfach, Bilder zu erstellen, die unglaublich realistisch aussehen, aber in Wirklichkeit unecht sind. Jeder mit einer Internetverbindung und Zugriff auf ein KI-gestütztes Tool kann in Sekundenschnelle realistische Fotos erstellen und diese dann in rasender Geschwindigkeit in den sozialen Medien verbreiten.
Ein von KI generiertes gefälschtes Foto soll Elon Musk beim „Dating“ mit GM-CEO Mary Barra zeigen.
In jüngster Zeit sind viele dieser Bilder viral gegangen: etwa die vorgetäuschte Verhaftung des ehemaligen Präsidenten Donald Trump und des Präsidenten Wladimir Putin oder das „Abhängen“ des Milliardärs Elon Musk mit Mary Barra, CEO von General Motors (GM).
Das Problem ist, dass KI-Bilder Ereignisse darstellen, die nie stattgefunden haben. Und obwohl einige dieser Bilder lustig und unwirklich aussehen mögen, bergen sie laut Experten dennoch eine echte Gefahr in Form von Fehlinformationen und sogar der Verbreitung von Fake News.
Bilder von Verhaftungen von Politikern wie dem ehemaligen US-Präsidenten Donald Trump können Nutzer relativ schnell verifizieren, wenn sie seriöse Medienquellen überprüfen. KI-Experte Henry Ajder erklärte gegenüber der DW jedoch, dass andere Bilder schwieriger zu identifizieren seien, etwa solche, auf denen die abgebildete Person weniger bekannt sei.
Die Gefahr gefälschter Eventfotos
Laut Ajder sind es nicht nur KI-generierte Bilder von Menschen, die Fehlinformationen verbreiten können. Er sagte, es gebe Beispiele dafür, dass Nutzer Ereignisse erfinden, die nie stattgefunden haben, wie etwa ein schweres Erdbeben, das 2001 angeblich die USA und Kanada erschütterte.
Doch das Erdbeben ereignete sich nie, und die auf Reddit geteilten Bilder wurden alle von KI generiert. Und genau das, so Ajder, sei das Problem. „Wenn die KI eine Landschaftsszene generiert, kann es schwieriger sein, diese zu erkennen“, erklärt er.
Dennoch machen KI-Tools Fehler, auch wenn sie sich schnell verbessern. Seit April 2023 weisen Programme wie Midjourney, Dall-E und DeepAI alle Störungen auf, insbesondere bei Bildern, die Menschen zeigen.
Hier sind einige Tipps zur Überprüfung von KI-generierten Bildern. Experten warnen jedoch davor, dass diese nur die aktuelle Situation widerspiegeln, da sich die Tools der künstlichen Intelligenz täglich, ja sogar stündlich weiterentwickeln:
Vergrößern und die Bildquelle finden
Viele KI-generierte Bilder wirken auf den ersten Blick echt. Experten raten daher zunächst, das Foto genauer zu betrachten. Wählen Sie dazu die höchstmögliche Auflösung und zoomen Sie anschließend in die Details hinein.
Durch Vergrößern des Bildes werden Unstimmigkeiten und Fehler sichtbar, die auf den ersten Blick möglicherweise nicht erkannt werden.
Wenn Sie sich nicht sicher sind, ob ein Bild echt oder künstlich generiert ist, suchen Sie nach der Quelle. Informationen darüber, wo das Bild ursprünglich gepostet wurde, finden Sie in den Kommentaren anderer Nutzer unter dem Bild.
Alternativ können Sie eine umgekehrte Bildersuche durchführen. Laden Sie dazu das Bild in Tools wie Google Image Reverse Search, TinEye oder Yandex hoch und finden Sie die Originalquelle des Bildes.
Die Ergebnisse dieser Suchen können auch Links zu Faktenprüfungen seriöser Medien enthalten, die zusätzlichen Kontext bieten.
Achten Sie auf Körperproportionen und Darstellungsfehler
Es kommt nicht selten vor, dass KI-generierte Bilder Unterschiede in den Proportionen aufweisen. Hände könnten zu klein oder Finger zu lang sein. Oder Kopf und Beine passen möglicherweise nicht zum Rest des Körpers.
Hände sind derzeit eine große Fehlerquelle in KI-Bildgebungsprogrammen wie Midjourney oder DALL-E. Menschen haben oft zusätzliche oder fehlende Finger, wie auf gefälschten Fotos von Papst Franziskus.
KI-generiertes gefälschtes Foto von Papst Franziskus.
Weitere häufige Fehler in KI-generierten Bildern sind Personen mit zu vielen Zähnen, ungewöhnlich geformten Brillen oder unrealistisch geformten Ohren. Reflektierende Oberflächen wie Helmvisiere stellen ebenfalls Probleme für KI-Programme dar.
KI-Experte Henry Ajder warnt jedoch, dass neuere Versionen von Programmen wie Midjourney immer besser darin werden, Hände zu generieren, was bedeutet, dass sich die Benutzer nicht mehr lange darauf verlassen können, dass diese Art von Fehlern erkannt wird.
Sieht das Bild unecht und glatt aus?
Insbesondere die Midjourney-App produziert Bilder, die so schön und perfekt sind, dass der Betrachter Fragen stellen muss. „Die Gesichter sind zu rein, die Stoffe zu harmonisch“, sagt Andreas Dengel vom Deutschen KI-Forschungszentrum.
Die Haut der Menschen ist auf vielen KI-Bildern oft glatt und makellos, und sogar ihre Haare und Zähne sind perfekt. Im wirklichen Leben ist dies unmöglich.
Viele Fotos sind künstlerisch, glänzend und funkelnd, was selbst professionellen Fotografen bei Aufnahmen im Studio nur schwer gelingt.
KI-Tools scheinen oft Idealbilder zu entwerfen, die perfekt sein und möglichst vielen Menschen gefallen sollen.
Überprüfen Sie den Kontext und die Schlussfolgerung
Der Hintergrund eines Bildes verrät oft, ob es gefälscht ist. Objekte können verzerrt sein, wie zum Beispiel Straßenlaternen. In manchen Fällen kopieren KI-Programme Personen und Objekte und verwenden sie immer wieder. Und es kommt nicht selten vor, dass der Hintergrund eines KI-Bildes unscharf ist.
Doch auch diese Unschärfe kann fehlerhaft sein. Wie etwa bei dem Bild, das einen wütenden Will Smith bei den Oscars zeigen sollte. Der Hintergrund war nicht nur unscharf, sondern auch künstlich verwischt.
Viele KI-generierte Bilder lassen sich mittlerweile mit ein wenig Nachdenken erkennen. KI-Erkennungstools wie Hugging Face können ebenfalls dabei helfen, Fälschungen zu erkennen. Mit fortschreitender Technologie werden die Fehler in KI-Bildern jedoch möglicherweise weniger offensichtlich und damit schwieriger zu erkennen.
Hoang Hai (laut DW)
[Anzeige_2]
Quelle
Kommentar (0)