Følgelig ble et bilde av en eksplosjon nær Pentagon laget av kunstig intelligens (KI) delt på amerikanske sosiale nettverk 22. mai, noe som førte til at aksjemarkedet stupte på kort tid, og dermed skapte bekymring for falske nyheter som stammer fra KI.
| AI-generert falskt bilde av eksplosjon nær Pentagon. |
Nick Waters fra Bellingcat, en faktasjekkgruppe på nett, var rask med å påpeke de bemerkelsesverdige problemene med bildet. For det første finnes det ingen øyenvitner som kan bekrefte hendelsen. Bygningen på bildet ser heller ikke ut som Pentagon. Noen uvanlige detaljer, som de fremtredende lyktestolpene og svarte søylene som stikker ut fra fortauet, er tegn på at bildet ikke er ekte.
Det finnes mange verktøy for rekonstruksjon av kunstig intelligens (KI), som Midjourney, Dall-e 2 og Stable Diffusion, som kan lage naturtro bilder. Disse verktøyene vil imidlertid fylle hullene når det mangler data.
Al Jazeera har kommet opp med noen tiltak for å skille mellom AI-genererte bilder og ekte bilder av store hendelser når de vises på internett, som følger:
– Ved en eksplosjon eller en større hendelse vil det vanligvis være faktainformasjon fra flere personer og fra flere perspektiver.
– Hvem legger ut innholdet? Hvor befinner de seg, og hvor finner arrangementet sted? Hvilke kontoer følger de, og hvem følger dem. Kan du kontakte dem eller snakke med dem?
– Analyser bilder og omgivelser: Se etter ledetråder i bildet, som steder i nærheten, trafikkskilt osv., for å finne ut hvor eller når en hendelse kan finne sted.
– Når det gjelder bilder av mennesker, vær oppmerksom på øynene, hendene og den generelle holdningen deres. AI-genererte videoer som etterligner mennesker, kalt deep fakes, har ofte problemer med å blunke fordi de fleste treningsdatasett ikke inneholder ansikter med lukkede øyne. Hender vil ikke gripe gjenstander ordentlig.
– Huden til folk i AI-genererte bilder vil ofte være glatt, og til og med håret og tennene deres vil være surrealistisk perfekte.
[annonse_2]
Kilde






Kommentar (0)