Vietnam.vn - Nền tảng quảng bá Việt Nam

Hvordan se forskjell på en ekte video og en som er laget av AI.

Med Sora AI som lar hvem som helst lage hyperrealistiske deepfake-videoer, har det å skille mellom ekte og falske (deepfake) videoer blitt en avgjørende overlevelsesevne i den digitale tidsalderen.

VTC NewsVTC News26/10/2025

Hvis du noen gang har surfet på sosiale medier, er det stor sjanse for at du har kommet over bilder eller videoer laget av AI. Mange har blitt lurt, som den virale videoen av kaniner som hopper på trampoline. Men Sora – en søsterapp til ChatGPT utviklet av OpenAI – tar AI-video til et nytt nivå, noe som gjør det stadig mer presserende å oppdage falskt innhold.

AI-videoverktøy gjør det vanskeligere enn noensinne å identifisere ekte videoer. (Kilde: CNET)

AI-videoverktøy gjør det vanskeligere enn noensinne å identifisere ekte videoer. (Kilde: CNET)

Denne appen ble lansert i 2024 og nylig oppgradert med Sora 2, og har et grensesnitt som ligner på TikTok, der alle videoer er AI-generert. «Cameo»-funksjonen lar ekte mennesker settes inn i simulerte opptak, noe som skaper videoer som er skremmende realistiske.

Derfor frykter mange eksperter at Sora vil føre til spredning av deepfakes, som forvrenger informasjon og visker ut linjene mellom virkelighet og falskhet. Kjendiser er spesielt sårbare, noe som har ført til at organisasjoner som SAG-AFTRA har bedt OpenAI om å styrke beskyttelsen.

Å identifisere AI-generert innhold er en stor utfordring for både teknologiselskaper, sosiale medieplattformer og brukere. Men det finnes måter å gjenkjenne videoer laget med Sora.

Finn Sora-vannmerket

Sora-vannmerket (angitt med den blå pilen) er en markør som identifiserer verktøyet som ble brukt til å lage videoen. (Kilde: CNET)

Sora-vannmerket (angitt med den blå pilen) er en markør som identifiserer verktøyet som ble brukt til å lage videoen. (Kilde: CNET)

Alle videoer som lages i Sora iOS-appen har et vannmerke når de lastes ned – den hvite Sora-logoen (skyikonet) beveger seg rundt kantene på videoen, på samme måte som vannmerket på TikTok.

Dette er en visuell måte å identifisere AI-generert innhold på. For eksempel legger Googles Gemini-modell «nano-banan» også automatisk til et vannmerke på bilder. Vannmerker er imidlertid ikke alltid pålitelige. Hvis vannmerket er statisk, kan det enkelt beskjæres. Selv dynamiske vannmerker som Soras kan fjernes ved hjelp av spesialiserte applikasjoner.

Da OpenAI-sjef Sam Altman ble spurt om dette, argumenterte han for at samfunnet må tilpasse seg realiteten at hvem som helst kan lage falske videoer. Før Sora fantes det aldri et verktøy som var så populært, tilgjengelig og som ikke krevde noen ferdigheter for å lage slike videoer. Hans perspektiv fremhever behovet for å stole på alternative verifiseringsmetoder.

Sjekk metadata

Sjekk av metadata – et avgjørende trinn for å avgjøre om en video ble laget av AI, som Sora. (Kilde: Canto)

Sjekk av metadata – et avgjørende trinn for å avgjøre om en video ble laget av AI, som Sora. (Kilde: Canto)

Du tenker kanskje at det er for komplisert å sjekke metadata, men det er faktisk ganske enkelt og veldig effektivt.

Metadata er et sett med informasjon som automatisk legges til innhold når det opprettes, for eksempel kameratype, plassering, opptakstidspunkt og filnavn. Enten innholdet er menneskeskapt eller AI-generert, har det metadata. Med AI-generert innhold inkluderer metadata ofte kildehenvisningsinformasjon.

OpenAI er medlem av Coalition for Content Origin and Authenticity (C2PA), så Sora-videoer vil inneholde C2PA-metadata. Du kan bekrefte dette ved hjelp av verifiseringsverktøyet til Content Authenticity Initiative:

Slik sjekker du metadata:

  • Besøk verify.contentauthenticity.org
  • Last opp filen som skal kontrolleres.
  • Trykk på «Åpne»
  • Se informasjonen i tabellen til høyre.

Hvis videoen ble laget av AI, vil sammendraget tydelig angi dette. Når du sjekker Sora-videoer, vil du se linjen «publisert av OpenAI» og informasjon som bekrefter at videoen ble laget med AI. Alle Sora-videoer må ha denne informasjonen for å bekrefte opprinnelsen.

Herr Quang

Kilde: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme emne

I samme kategori

Et nærbilde av verkstedet som lager LED-stjernen til Notre Dame-katedralen.
Den åtte meter høye julestjernen som lyser opp Notre Dame-katedralen i Ho Chi Minh-byen er spesielt slående.
Huynh Nhu skriver historie i SEA Games: En rekord som blir svært vanskelig å slå.
Den fantastiske kirken på Highway 51 lyste opp til jul og tiltrakk seg oppmerksomheten til alle som gikk forbi.

Av samme forfatter

Arv

Figur

Forretninger

Bønder i blomsterlandsbyen Sa Dec er travelt opptatt med å stelle blomstene sine som forberedelse til festivalen og Tet (månens nyttår) 2026.

Aktuelle saker

Det politiske systemet

Lokalt

Produkt