Die rasante Entwicklung der künstlichen Intelligenz (KI) bringt der Menschheit viele Vorteile. Allerdings birgt sie auch Risiken, darunter das Problem der Fake News.
Ein typisches Beispiel hierfür sind Falschinformationen wie über das verheerende Erdbeben im pazifischen Nordwesten, die von einem KI-Bildgenerator erzeugt wurden.
Daher müssen wir gegenüber Informationen und Inhalten, die in sozialen Netzwerken verbreitet werden, wachsam sein. Die folgenden Methoden können Ihnen helfen, von KI erstellte Fotos zu identifizieren.
Zoomen Sie hinein und schauen Sie genau hin
Der erste Tipp: Schauen Sie sich das Foto genau an, wählen Sie die höchstmögliche Auflösung und zoomen Sie dann in die Details hinein. Durch das Vergrößern des Bildes werden Unstimmigkeiten und Fehler sichtbar, die auf den ersten Blick möglicherweise nicht sichtbar sind.
Gefälschte Fotos des verhafteten ehemaligen Präsidenten Donald Trump (links) und von Papst Franziskus im weißen Kittel, erstellt von der KI Midjourney.
Bildquelle finden
Wenn Sie sich nicht sicher sind, ob ein Bild echt oder künstlich generiert ist, suchen Sie nach der Quelle. Laden Sie das Bild in Tools wie Google Image Reverse Search, TinEye oder Yandex hoch, um möglicherweise die Originalquelle zu finden.
Die Ergebnisse dieser Suchen können auch Links zu seriösen Medien enthalten, die zusätzlichen Kontext bieten.
Achten Sie auf die Körperproportionen
Es kommt nicht selten vor, dass KI-generierte Bilder Unterschiede in den Proportionen aufweisen. Hände können zu klein oder Finger zu lang sein oder Kopf und Beine passen nicht zum Rest des Körpers.
Hände stellen eine große Fehlerquelle in KI-Bildprogrammen dar. Personen auf Fotos haben oft sechs oder vier Finger.
Weitere häufige Fehler sind Personen mit zu vielen Zähnen, seltsam deformierten Brillengestellen oder unrealistisch geformten Ohren. Auch reflektierende Oberflächen wie Helmvisiere stellen für KI-Programme ein Problem dar.
Der Handfehler im KI-generierten Foto des tanzenden ehemaligen britischen Premierministers Boris Johnson. (Foto: Eliot Higgins)
KI-Experte Henry Ajder warnt jedoch, dass die neue Version des Midjourney-Programms immer besser darin werde, Hände zu generieren, was bedeute, dass Benutzer diese Art von Fehlern auf lange Sicht nicht mehr erkennen könnten.
Das Bild ist zu schön, zu glatt
KI erzeugt oft Bilder, die zu schön sind, um wahr zu sein. Folgen Sie Ihrer Intuition: Sind Bilder von solch perfekten Menschen tatsächlich real?
„Die falschen Gesichter sind zu rein, die Kleidung ist recht harmonisch“, sagte Andreas Dengel vom Deutschen KI-Forschungszentrum der DW.
Die Haut von Menschen in KI-Bildern ist oft glatt und makellos, sogar ihre Haare und Zähne sind perfekt. Dabei handelt es sich meist nicht um eine reale Person.
Viele Fotos sind künstlerisch, glänzend und funkelnd, was selbst professionellen Fotografen bei Aufnahmen im Studio nur schwer gelingt.
THANH TUNG (Synthese)
[Anzeige_2]
Quelle
Kommentar (0)