Google Lens ist eine von Google entwickelte Bildersuchmaschine – Foto: KLMOBILE
Laut Full Fact handelt es sich bei den oben genannten Fällen um Videos , die angeblich den Krieg in der Ukraine und im Gazastreifen, den Konflikt zwischen Indien und Pakistan, den Flugzeugabsturz der Air India im Juni 2025 und Einwanderer, die mit kleinen Booten nach Großbritannien kommen, zum Thema haben.
Full Fact verwendete Google Lens, um nach Screenshots von gefälschten Videos zu suchen, deren Fakten sie überprüft hatten.
In mindestens zehn Fällen erkannten die KI-Zusammenfassungen die gefälschten Inhalte nicht und wiederholten sogar dieselben Fehlinformationen wie in den sozialen Medien.
In vier Beispielen wiederholt die KI-Übersicht wörtlich falsche Behauptungen, die Full Fact widerlegt hat. Darüber hinaus können sich die Ergebnisse der KI-Zusammenfassung bei jeder Suche ändern, selbst bei demselben Bild, was zu inkonsistenten Informationen führt.
Google räumt ein, dass einige dieser Fehler auftreten können, und sagt, dass sie von den Ergebnissen der Bildersuche und nicht vom KI-Übersichtssystem herrühren.
Laut Google können die Ergebnisse der Bildersuche Webquellen oder Social-Media-Beiträge enthalten, die sowohl passende Bilder als auch falsche Informationen enthalten, was sich auf die KI-Zusammenfassungen auswirkt.
Google sagt, dass es stets darauf abzielt, relevante und qualitativ hochwertige Informationen anzuzeigen, sich kontinuierlich zu verbessern und bei erkannten Problemen entsprechend den Richtlinien zu handeln.
Obwohl Google behauptet, dass KI-Übersichten selten Informationen „erfinden“ (auch als KI-„Halluzinationen“ bekannt), verbreitet das Unternehmen dennoch Fehlinformationen zu wichtigen und sensiblen Themen.
So wurde beispielsweise in einem viralen Video fälschlicherweise behauptet, Asylsuchende würden am Dover Beach in Großbritannien ankommen, obwohl die Szene in Wirklichkeit an einem Strand im indischen Goa stattfand. Bei der Suche nach Screenshots aus dem Video fasste Google Lens es wie folgt zusammen: „Menschen versammeln sich am Dover Beach in Großbritannien.“
Oder einige gefälschte Videos über den Krieg in Russland und der Ukraine, sogar Bilder aus dem Videospiel Arma 3, werden von AI Overview als echt beschrieben, ohne zu warnen, dass es sich um gefälschte Inhalte handelt.
Es gibt einen Fall, in dem dasselbe Videospiel, aber zwei verschiedene Aufnahmen, von der KI als eine Szene zusammengefasst werden, in der das C-RAM-Verteidigungssystem Artilleriegeschosse abfängt, und als eine Szene, in der eine SpaceX-Rakete startet. Das heißt jedoch nicht, dass es sich dabei um gefälschte Bilder handelt.
Die KI-Synthese von Google Lens lieferte falsche Informationen, als sie behauptete, es handele sich um ein Bild von Flüchtlingen, die in der Stadt Dover in England ankommen – Foto: FULL FACT
Google Lens ist eine Bildersuchmaschine, mit der Benutzer nach Fotos oder Einzelbildern aus Videos suchen können, um sie online mit ähnlichen Bildern zu vergleichen.
Manchmal erscheint oben auf der Seite eine KI-Zusammenfassung, die relevante Informationen aus dem Internet zusammenfasst. Trotz der Warnung, dass „KI Fehler machen kann“, kann die prominente Darstellung von Fehlinformationen die Öffentlichkeit leicht in die Irre führen.
Full Fact empfiehlt, das KI-Übersichtstool von Google Lens als Ausgangspunkt und nicht als Ersatz für eine manuelle Faktenprüfung zu betrachten und zum Vergleich zusätzliche zuverlässige Quellen heranzuziehen.
Dies ist nicht das erste Mal, dass Google-Suchergebnisse falsche Informationen anzeigen. Full Fact gibt an, von Google und Google.org finanziert worden zu sein, behält aber seine vollständige redaktionelle Unabhängigkeit.
Quelle: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Kommentar (0)