Google Lens är en bildsökmotor utvecklad av Google - Foto: KLMOBILE
Enligt Full Fact rör de ovan nämnda fallen videor som påstås handla om kriget i Ukraina och Gaza, konflikten mellan Indien och Pakistan, Air Indias flygplanskrasch i juni 2025 och invandrare som kommer till Storbritannien i små båtar.
Full Fact använde Google Lens för att söka efter skärmdumpar från falska videor som de hade faktagranskat.
I minst 10 fall misslyckades AI-sammanfattningarna med att känna igen falskt innehåll, och upprepade till och med felinformation liknande den som fanns på sociala medier.
I fyra exempel upprepade AI-översikten ordagrant falska påståenden som Full Fact hade motbevisat. Dessutom kunde AI:s sammanfattningsresultat ändras varje gång den sökte, även efter samma bild, vilket ledde till inkonsekvent information.
Google medger att vissa av dessa fel kan uppstå och säger att orsaken kommer från bildsökningsresultaten, inte från AI-översiktssystemet.
Enligt Google kan bildsökningsresultat inkludera webbkällor eller inlägg på sociala medier som innehåller både matchande bilder och falsk information, och det påverkar AI-sammanfattningar.
Google säger att de alltid strävar efter att visa relevant och högkvalitativ information, ständigt förbättrar sig och när problem upptäcks kommer de att hanteras enligt policyn.
Även om Google hävdar att AI-översikt sällan "fabricerar" information (även känt som AI-"hallucinationer"), sprider de fortfarande felinformation om viktiga och känsliga frågor.
Till exempel påstod en viral video falskeligen att asylsökande anlände till Dover Beach i England, när händelsen i själva verket utspelade sig på en strand i Goa i Indien. Google Lens, när de sökte efter en skärmdump av videon, sammanfattade den som "människor som samlas på Dover Beach i England".
Eller några falska videor om kriget i Ryssland-Ukraina, till och med bilder från videospelet Arma 3, beskrivs av AI-översikten som verkliga utan förvarning om att detta är falskt innehåll.
Det finns ett fall där samma videospel men två olika foton sammanfattades av AI som en scen där C-RAM-försvarssystemet fångade upp artillerigranater och en scen där en SpaceX-raketuppskjutning pågår, vilket absolut inte säger att detta är en falsk bild.
Google Lens AI-syntes gav falsk information när den påstod att det var en bild på flyktingar som anlände till staden Dover, England - Foto: FULL FACT
Google Lens är ett bildsökningsverktyg som låter användare söka efter foton eller ramar från videor för att jämföra med liknande bilder online.
Ibland visas en AI-sammanfattning högst upp på sidan, som samlar relevant information från webben. Trots varningen att "AI kan göra misstag" kan det lätt vilseleda allmänheten om felinformation visas tydligt.
Full Fact rekommenderar att Google Lens AI-översiktsverktyg ses som en utgångspunkt, inte en ersättning för manuell faktakontroll, och att ytterligare tillförlitliga källor söks för jämförelse.
Det här är inte första gången Googles sökresultat har visat felaktig information. Full Fact säger att de tidigare har fått finansiering från Google och Google.org men att de bibehåller fullständig redaktionell oberoende.
Källa: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Kommentar (0)