Hvis du noen gang har skrollet gjennom sosiale medier, er det stor sjanse for at du har kommet over et AI-generert bilde eller en video . Mange har blitt lurt, som den virale videoen av kaniner som hopper på trampoline. Men Sora, ChatGPTs søsterapp utviklet av OpenAI, tar AI-video til neste nivå, noe som gjør det viktig å oppdage falskt innhold.

AI-videoverktøy gjør det vanskeligere enn noensinne å si hva som er ekte. (Kilde: CNET)
Appen ble lansert i 2024 og nylig oppdatert med Sora 2, og har et TikTok-lignende grensesnitt der hver video er AI-generert. «Cameo»-funksjonen lar ekte mennesker bli satt inn i det simulerte opptaket, og skaper videoer som er så realistiske at de er skremmende.
Som et resultat frykter mange eksperter at Sora vil spre deepfakes, noe som skaper forvirring og visker ut linjene mellom ekte og falskt. Kjendiser er spesielt sårbare, noe som har ført til at organisasjoner som SAG-AFTRA har bedt OpenAI om å styrke beskyttelsen sin.
Å identifisere AI-innhold er en stor utfordring for både teknologiselskaper, sosiale nettverk og brukere. Men det finnes måter å gjenkjenne videoer laget med Sora.
Finn Sora-vannmerket

Sora-vannmerket (grønn pil peker inn) er et tegn som identifiserer hvilket verktøy som laget videoen. (Kilde: CNET)
Alle videoer som lages i Sora iOS-appen får et vannmerke når de lastes ned – en hvit Sora-logo (skyikon) som beveger seg rundt kantene på videoen, likt TikToks vannmerke.
Dette er en intuitiv måte å gjenkjenne AI-generert innhold på. For eksempel vannmerker Googles Gemini-modell «nanobanan» også bilder automatisk. Vannmerker er imidlertid ikke alltid pålitelige. Hvis vannmerket er statisk, kan det enkelt beskjæres. Selv dynamiske vannmerker som Soras kan fjernes ved hjelp av dedikerte apper.
Da OpenAI-sjef Sam Altman ble spurt om dette, sa han at samfunnet må tilpasse seg det faktum at hvem som helst kan lage falske videoer. Før Sora fantes det ikke noe slikt verktøy som var allment tilgjengelig, lett tilgjengelig og ikke krevde ferdigheter. Hans synspunkt peker på behovet for å stole på andre verifiseringsmetoder.
Sjekk metadata

Kontroll av metadata – et viktig trinn i å avgjøre om en video er generert av AI, som Sora. (Kilde: Canto)
Du tenker kanskje at det er for komplisert å sjekke metadata, men det er faktisk ganske enkelt og veldig effektivt.
Metadata er et sett med informasjon som automatisk legges til innhold når det opprettes, for eksempel kameratype, sted, tidspunkt for filming og filnavn. Metadata er inkludert, enten det er menneskeskapt eller AI-generert innhold. Med AI-innhold følger ofte metadata med informasjon som autentiserer opprinnelsen.
OpenAI er medlem av Content Provenance and Authentication Alliance (C2PA), så Sora-videoer vil inneholde C2PA-metadata. Du kan sjekke ved hjelp av verifiseringsverktøyet til Content Authentication Initiative:
Slik sjekker du metadata:
- Besøk verify.contentauthenticity.org
- Last opp filen som skal kontrolleres
- Klikk på «Åpne»
- Se informasjon i tabellen til høyre.
Hvis videoen ble generert av AI, vil sammendraget angi dette. Når du sjekker en Sora-video, vil du se «publisert av OpenAI» og informasjon som bekrefter at videoen ble generert med AI. Alle Sora-videoer må ha denne informasjonen for å bekrefte opprinnelsen.
Kilde: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Kommentar (0)