Hogyan lehet felismerni a Sora által generált valós vagy szürreális MI-videókat?
Mivel az OpenAI Sora eszköze bárki számára segít hiperrealisztikus videók készítésében, a valódi és a hamis (deepfake) megkülönböztetése túlélési készséggé válik a közösségi médiában.
Báo Khoa học và Đời sống•31/10/2025
A Sora, az OpenAI mesterséges intelligencia alapú videóalkalmazása , eddig soha nem látott mértékben elmosza a határt a valódi és a hamis között. A 2024-ben indult és nemrégiben Sora 2-re frissített eszköz lehetővé teszi, hogy élethű videókat készíts mindössze néhány perc alatt.
A „kameo” funkció egy valódi személy arcát illeszti be a szimulált felvételbe, így a videó még nehezebben megkülönböztethető. Minden Sora iOS-en készült videó rendelkezik egy mobil vízjellel, egy fehér felhő logóval, amely segít a nézőknek felismerni a mesterséges intelligencia által generált tartalmat.
A vízjelek azonban eltávolíthatók vagy szerkeszthetők, így ez nem egy abszolút ellenőrzési módszer. (Forrás: CNET) A felhasználók ellenőrizhetik a metaadatokat, hogy kiderüljön, a videó mesterséges intelligencia által generált-e. (Forrás: Canto) Az OpenAI tagja a C2PA szövetségnek, így a Sora-videók mindig tartalmazzák a „közzétette az OpenAI” hivatkozást.
Csak töltsd fel a videódat a verify.contentauthenticity.org oldalra, és azonnal tudni fogod, hogy valódi vagy mesterséges intelligencia által létrehozott termék. Kedves olvasók, tekintsenek meg további videókat: 2026. január 1-jétől a mesterséges intelligencia által létrehozott digitális termékeknek azonosító jelekkel kell rendelkezniük | Nhan Dan Újság
Hozzászólás (0)