Ha valaha is böngésztél a közösségi médiában, valószínűleg találkoztál már mesterséges intelligencia által generált képpel vagy videóval . Sokakat becsaptak már, például a trambulinon ugráló nyulakról készült vírusvideót. De a Sora, a ChatGPT testvéralkalmazása, amelyet az OpenAI fejlesztett ki, a következő szintre emeli a mesterséges intelligencia által generált videókat, és elengedhetetlenné teszi a hamis tartalmak kiszűrését.

A mesterséges intelligencia által támogatott videóeszközök minden eddiginél nehezebbé teszik a valóság megállapítását. (Forrás: CNET)
A 2024-ben indult és nemrégiben a Sora 2-vel frissített alkalmazás egy TikTok-szerű felülettel rendelkezik, ahol minden videót mesterséges intelligencia generál. A „cameo” funkció lehetővé teszi, hogy valódi embereket illesszünk be a szimulált felvételekbe, így olyan videókat hozva létre, amelyek annyira valósághűek, hogy ijesztőek.
Ennek eredményeként sok szakértő attól tart, hogy a Sora deepfake-eket fog terjeszteni, zavart keltve és elmosva a valódi és a hamisítvány közötti határokat. A hírességek különösen sebezhetőek, ezért olyan szervezetek, mint a SAG-AFTRA, felszólították az OpenAI-t a védelem megerősítésére.
A mesterséges intelligencia által támogatott tartalmak azonosítása nagy kihívást jelent a technológiai vállalatok, a közösségi hálózatok és a felhasználók számára egyaránt. Vannak azonban módszerek a Sora segítségével létrehozott videók felismerésére.
Sora vízjel keresése

A Sora Watermark (befelé mutató zöld nyíl) egy jel, amely azonosítja, hogy melyik eszközzel készült a videó. (Forrás: CNET)
Minden, a Sora iOS alkalmazásban létrehozott videó letöltéskor vízjelet kap – egy fehér Sora logót (felhő ikont), amely a videó szélei körül mozog, hasonlóan a TikTok vízjeléhez.
Ez egy intuitív módja a mesterséges intelligencia által generált tartalom felismerésének. Például a Google Gemini „nano banán” modellje is automatikusan vízjelez képeket. A vízjelek azonban nem mindig megbízhatóak. Ha a vízjel statikus, könnyen kivágható. Még a dinamikus vízjelek, mint például a Sora vízjele is eltávolíthatók dedikált alkalmazásokkal.
Amikor erről kérdezték, Sam Altman, az OpenAI vezérigazgatója azt mondta, hogy a társadalomnak alkalmazkodnia kell ahhoz a tényhez, hogy bárki készíthet hamis videókat. A Sora előtt nem volt ilyen eszköz, amely széles körben elérhető, könnyen hozzáférhető és szakértelmet nem igényelt volna. Véleménye szerint más ellenőrzési módszerekre kell támaszkodni.
Metaadatok ellenőrzése

Metaadatok ellenőrzése – kulcsfontosságú lépés annak meghatározásában, hogy egy videót mesterséges intelligencia, például Sora generált-e. (Forrás: Canto)
Azt gondolhatod, hogy a metaadatok ellenőrzése túl bonyolult, de valójában elég egyszerű és nagyon hatékony.
A metaadatok olyan információk halmaza, amelyek automatikusan csatolódnak a tartalomhoz annak létrehozásakor, például a kamera típusa, a helyszín, a forgatás ideje és a fájlnév. Akár ember, akár mesterséges intelligencia által generált tartalomról van szó, a metaadatok szerepelnek. A mesterséges intelligencia által generált tartalmak esetében a metaadatok gyakran olyan információkkal együtt járnak, amelyek hitelesítik azok eredetét.
Az OpenAI tagja a Content Provenance and Authentication Alliance (C2PA) szervezetnek, így a Sora videók C2PA metaadatokat tartalmaznak. Ezt a Content Authentication Initiative ellenőrző eszközével ellenőrizheted:
A metaadatok ellenőrzése:
- Látogasson el a verify.contentauthenticity.org oldalra
- Töltse fel az ellenőrizendő fájlt
- Kattintson a „Megnyitás” gombra
- Lásd az információkat a jobb oldali táblázatban.
Ha a videót mesterséges intelligencia generálta, az összefoglalóban ez szerepelni fog. Amikor megnézel egy Sora-videót, a „közzétette: OpenAI” feliratot, valamint információkat fogsz látni, amelyek megerősítik, hogy a videó mesterséges intelligenciával készült. Minden Sora-videónak tartalmaznia kell ezt az információt az eredetük igazolásához.
Forrás: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Hozzászólás (0)