Internettbrukere bruker kunstig intelligens til å lage bilder av Charlie Kirks drapsmistenkte. Foto: CBC . |
Det amerikanske føderale etterforskningsbyrået (FBI) har offentliggjort to bilder som viser den mistenkte involvert i skytingen som drepte aktivisten Charlie Kirk. Fordi bildene er ganske uskarpe, reagerte nettsamfunnet raskt med «oppgraderte» versjoner av bildene ved hjelp av kunstig intelligens (AI).
Disse bildene ser skarpere og klarere ut enn originalene, men de er egentlig bare et produkt av spekulasjoner. AI har ikke evnen til å « oppdage » skjulte detaljer i et uskarpt bilde. I stedet forutsier verktøyet og fyller inn hullene basert på lærte data, noe som kan bety å skape detaljer som ikke eksisterer i virkeligheten.
![]() |
AI-forbedrede bilder av mistenkte i Charlie Kirk-skytingen, men ingen ansikter er like. Foto: Grok. |
Flere forbedrede versjoner av bildene ble lagt ut under FBI-innlegget. Noen av bildene kan være laget med Grok-verktøyet på X, mens andre antas å være laget med plattformer som ChatGPT og Gemini. Nøyaktigheten til disse gjengivelsene varierer imidlertid mye. Noen bilder viser til og med åpenbare unøyaktigheter, for eksempel å endre fargen på skjorten eller få karakterens ansikt til å se annerledes ut med en overdrevet hake.
Det ser ut til at disse bildene ble delt med den hensikt å «hjelpe» fellesskapet med å identifisere den mistenkte. Men i virkeligheten ble de også et verktøy for å tiltrekke seg oppmerksomhet, for å øke likerklikk og delinger på sosiale nettverk.
Eksperter advarer om at det er usannsynlig at disse AI-bildene vil være mer nyttige enn FBIs originaler. Faktisk har AI-forbedrede bilder i noen tidligere tilfeller gitt kontroversielle resultater.
For eksempel ble et lavoppløselig bilde av tidligere president Barack Obama «oppgradert» av AI for å vise en hvit mann. I et annet tilfelle fikk et bilde av president Donald Trump en ikke-eksisterende svulst lagt til i hodet av AI.
Disse avvikene tyder på at AI bare ekstrapolerer fra eksisterende data, snarere enn å nøyaktig gjenskape det som går tapt i uskarpe bilder. Selv om teknologien kan være nyttig i noen sammenhenger, bør ikke AI-genererte bilder betraktes som endelig bevis i kriminelle etterforskninger.
FBI offentliggjorde i sin kunngjøring bare det originale bildet og oppfordret publikum til å gi informasjon hvis de kunne identifisere personen på bildet. Bølgen av «selvoppgraderende bilder» på sosiale nettverk vakte imidlertid raskt oppmerksomhet, og reiste spørsmål om ansvaret ved å bruke AI-verktøy i sensitive saker knyttet til sikkerhet og menneskeliv.
Etter hvert som kunstig intelligens blir mer utbredt, belyser denne hendelsen et problem: AI kan lage bilder som ser så ekte ut at de er visuelt villedende, men det betyr ikke at de er pålitelige. Spesielt i kriminelle forfølgelser kan unøyaktige data føre til alvorlige konsekvenser.
Kilde: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Kommentar (0)