Google Lens er en bildesøkemotor utviklet av Google - Foto: KLMOBILE
Ifølge Full Fact dreier sakene nevnt ovenfor seg om videoer som angivelig handler om krigen i Ukraina og Gaza, konflikten mellom India og Pakistan, flystyrten med Air India i juni 2025 og innvandrere som kommer til Storbritannia i små båter.
Full Fact brukte Google Lens til å søke etter skjermbilder fra falske videoer de hadde faktasjekket.
I minst ti tilfeller klarte ikke AI-sammendragene å gjenkjenne falskt innhold, og de gjentok til og med feilinformasjon som ligner på det som var på sosiale medier.
I fire eksempler gjentok AI-oversikten ordrett falske påstander som Full Fact hadde avkreftet. I tillegg kunne AI-sammendragsresultatene endres hver gang den søkte, selv etter det samme bildet, noe som førte til inkonsekvent informasjon.
Google innrømmer at noen av disse feilene kan oppstå, og sier at årsaken kommer fra bildesøkeresultatene, ikke fra AI-oversiktssystemet.
Ifølge Google kan bildesøkresultater inkludere nettkilder eller innlegg på sosiale medier som inneholder både samsvarende bilder og falsk informasjon, og det påvirker AI-oppsummeringer.
Google sier at de alltid har som mål å vise relevant og høykvalitetsinformasjon, kontinuerlig forbedrer seg, og når problemer oppdages, vil de bli håndtert i henhold til retningslinjene.
Selv om Google hevder at AI-oversikt sjelden «fabrikkerer» informasjon (også kjent som AI-«hallusinasjoner»), sprer de fortsatt feilinformasjon om viktige og sensitive saker.
For eksempel hevdet en viral video feilaktig at asylsøkere ankom Dover Beach i England, mens det faktisk skjedde på en strand i Goa i India. Google Lens søkte etter et skjermbilde av videoen og oppsummerte den som «folk som samlet seg på Dover Beach i England».
Eller noen falske videoer om krigen i Russland - Ukraina, til og med bilder fra videospillet Arma 3, beskrives av AI-oversikt som ekte uten forvarsel om at dette er falskt innhold.
Det finnes et tilfelle der det samme videospillet, men med to forskjellige bilder, ble oppsummert av AI som en scene der C-RAM-forsvarssystemet avskjærer artillerigranater og en scene der en SpaceX-rakettoppskyting pågår, uten å si at dette er et falskt bilde.
Google Lens' AI-syntese ga falsk informasjon da den hevdet at det var et bilde av flyktninger som ankom byen Dover i England – Foto: FULL FACT
Google Lens er et bildesøkverktøy som lar brukere søke etter bilder eller rammer fra videoer for å sammenligne med lignende bilder på nettet.
Noen ganger vil et sammendrag av AI vises øverst på siden, som samler relevant informasjon fra nettet. Til tross for advarselen om at «AI kan gjøre feil», kan det lett villede offentligheten å ha feilinformasjon tydelig vist.
Full Fact anbefaler at Google Lens' AI-oversiktsverktøy ses på som et utgangspunkt, ikke en erstatning for manuell faktasjekking, og at det søkes etter ytterligere pålitelige kilder for sammenligning.
Dette er ikke første gang Googles søkeresultater har vist feil informasjon. Full Fact sier at de har mottatt finansiering fra Google og Google.org tidligere, men opprettholder fullstendig redaksjonell uavhengighet.
Kilde: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Kommentar (0)