
Google Lens ist eine von Google entwickelte Bildsuchmaschine – Foto: KLMOBILE
Laut Full Fact geht es bei den oben genannten Fällen um Videos, die angeblich über den Krieg in der Ukraine und im Gazastreifen, den Konflikt zwischen Indien und Pakistan, den Absturz des Air India-Flugzeugs im Juni 2025 und Einwanderer, die mit kleinen Booten nach Großbritannien kommen, handeln.
Full Fact nutzte Google Lens, um nach Screenshots aus Videos zu suchen, deren Wahrheitsgehalt sie zuvor überprüft hatten.
In mindestens zehn Fällen erkannten die KI-Zusammenfassungen die gefälschten Inhalte nicht und wiederholten sogar dieselben Fehlinformationen wie in den sozialen Medien.
In vier Beispielen wiederholt die KI-Übersicht wörtlich falsche Behauptungen, die Full Fact bereits widerlegt hat. Zudem können sich die Ergebnisse der KI-Zusammenfassung bei jeder Suche ändern, selbst bei demselben Bild, was zu widersprüchlichen Informationen führt.
Google räumt ein, dass einige dieser Fehler auftreten können, und erklärt, dass sie von den Ergebnissen der Bildersuche und nicht vom KI-Übersichtssystem herrühren.
Laut Google können Bildersuchergebnisse auch Webquellen oder Social-Media-Beiträge enthalten, die sowohl passende Bilder als auch falsche Informationen enthalten, was sich auf die KI-Zusammenfassungen auswirkt.
Google gibt an, stets darauf bedacht zu sein, relevante und qualitativ hochwertige Informationen anzuzeigen, sich kontinuierlich zu verbessern und auftretende Probleme gemäß den Richtlinien zu beheben.
Obwohl Google behauptet, dass die KI-Übersicht selten Informationen „erfindet“ (auch bekannt als KI-„Halluzination“), verbreitet sie dennoch Fehlinformationen über wichtige und sensible Themen.
Ein virales Video behauptete beispielsweise fälschlicherweise, Asylsuchende würden am Dover Beach in Großbritannien ankommen, obwohl die Szene tatsächlich an einem Strand in Goa, Indien, aufgenommen wurde. Google Lens fasste das Video bei der Suche nach Screenshots mit „Menschen versammeln sich am Dover Beach in Großbritannien“ zusammen.
Oder es werden gefälschte Videos über den Krieg zwischen Russland und der Ukraine, sogar Bilder aus dem Videospiel Arma 3, von der KI-Übersicht als echt bezeichnet, ohne darauf hinzuweisen, dass es sich um gefälschte Inhalte handelt.
Es gibt einen Fall, in dem dasselbe Videospiel, aber zwei verschiedene Szenen von einer KI als eine Szene des C-RAM-Verteidigungssystems beim Abfangen von Artilleriegeschossen und als eine Szene des Starts einer SpaceX-Rakete zusammengefasst werden, was nicht bedeutet, dass es sich um gefälschte Bilder handelt.
Die KI-Synthese von Google Lens lieferte falsche Informationen, als sie behauptete, es handele sich um ein Bild von Flüchtlingen, die in der englischen Stadt Dover ankommen – Foto: FULL FACT
Google Lens ist eine Bildsuchmaschine, mit der Benutzer nach Fotos oder Einzelbildern aus Videos suchen und diese mit ähnlichen Bildern im Internet vergleichen können.
Manchmal erscheint oben auf der Seite eine KI-Zusammenfassung, die relevante Informationen aus dem Web zusammenfasst. Trotz des Hinweises, dass „KI Fehler machen kann“, kann die prominente Darstellung von Fehlinformationen die Öffentlichkeit leicht irreführen.
Full Fact empfiehlt, das KI-Übersichtstool von Google Lens als Ausgangspunkt und nicht als Ersatz für die manuelle Faktenprüfung zu betrachten und zusätzlich zuverlässige Quellen zum Vergleich heranzuziehen.
Dies ist nicht das erste Mal, dass Google-Suchergebnisse falsche Informationen enthalten. Full Fact gibt an, von Google und Google.org finanziert zu werden, wahrt aber seine vollständige redaktionelle Unabhängigkeit.
Quelle: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm







Kommentar (0)