Google Lens is een zoekmachine voor afbeeldingen, ontwikkeld door Google - Foto: KLMOBILE
Volgens Full Fact gaat het bij de hierboven genoemde gevallen om video's die naar verluidt gaan over de oorlog in Oekraïne en Gaza, het conflict tussen India en Pakistan, de vliegtuigcrash van Air India in juni 2025 en immigranten die in kleine bootjes naar het Verenigd Koninkrijk kwamen.
Full Fact gebruikte Google Lens om te zoeken naar screenshots van nepvideo's die ze hadden gecontroleerd op feiten.
In minstens 10 gevallen konden de AI-samenvattingen geen nepcontent herkennen en werd er zelfs misinformatie herhaald die vergelijkbaar was met wat er op sociale media stond.
In vier voorbeelden herhaalde het AI-overzicht letterlijk onjuiste beweringen die Full Fact had ontkracht. Bovendien konden de AI-samenvattingsresultaten bij elke zoekopdracht veranderen, zelfs naar dezelfde afbeelding, wat leidde tot inconsistente informatie.
Google geeft toe dat sommige van deze fouten kunnen optreden en stelt dat de oorzaak ligt bij de zoekresultaten van afbeeldingen en niet bij het AI-overzichtsysteem.
Volgens Google kunnen zoekresultaten voor afbeeldingen webbronnen of berichten op sociale media bevatten die zowel overeenkomende afbeeldingen als onjuiste informatie bevatten, wat van invloed is op de samenvatting door AI.
Google zegt dat het er altijd naar streeft om relevante en hoogwaardige informatie weer te geven, dat het de informatie voortdurend verbetert en dat wanneer er problemen worden gedetecteerd, deze volgens het beleid worden afgehandeld.
Hoewel Google beweert dat AI-overzichten zelden informatie 'verzinnen' (ook wel AI-'hallucinatie' genoemd), verspreidt het nog steeds desinformatie over belangrijke en gevoelige kwesties.
Zo beweerde een virale video ten onrechte dat asielzoekers aankwamen op Dover Beach, Engeland, terwijl de scène zich in werkelijkheid afspeelde op een strand in Goa, India. Google Lens vatte de video samen als "mensen die zich verzamelen op Dover Beach, Engeland".
Of sommige nepvideo's over de oorlog in Rusland-Oekraïne, zelfs afbeeldingen uit de videogame Arma 3, worden door het AI-overzicht als echt beschreven, zonder dat er wordt gewaarschuwd dat het om nepcontent gaat.
Er is een geval bekend waarbij dezelfde videogame, maar dan met twee verschillende foto's, door AI werd samengevat als een scène van het C-RAM-verdedigingssysteem dat artilleriegranaten onderschept en een scène van een SpaceX-raket die wordt gelanceerd. Daarmee is absoluut niet gezegd dat dit een nepbeeld is.
De AI-synthese van Google Lens gaf valse informatie toen het beweerde dat het een afbeelding was van vluchtelingen die aankwamen in de stad Dover, Engeland - Foto: FULL FACT
Google Lens is een hulpmiddel voor het zoeken naar afbeeldingen waarmee gebruikers foto's of frames uit video's kunnen doorzoeken en deze kunnen vergelijken met soortgelijke afbeeldingen online.
Soms verschijnt er bovenaan de pagina een AI-samenvatting, met relevante informatie van het web. Ondanks de waarschuwing dat "AI fouten kan maken", kan prominent weergegeven misinformatie het publiek gemakkelijk misleiden.
Full Fact adviseert om de AI-overzichtstool van Google Lens te beschouwen als een startpunt en niet als een vervanging voor handmatige feitencontrole. Ook raden we aan om aanvullende betrouwbare bronnen te zoeken ter vergelijking.
Dit is niet de eerste keer dat de zoekresultaten van Google onjuiste informatie tonen. Full Fact zegt in het verleden financiering te hebben ontvangen van Google en Google.org, maar behoudt volledige redactionele onafhankelijkheid.
Bron: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Reactie (0)