Ha valaha is böngésztél a közösségi médiában, valószínűleg találkoztál már mesterséges intelligencia által készített képekkel vagy videókkal . Sok embert becsaptak már, például a trambulinon ugráló nyulakat bemutató vírusvideót. De a Sora – a ChatGPT testvéralkalmazása, amelyet az OpenAI fejlesztett ki – új szintre emeli a mesterséges intelligencia által készített videókat, egyre sürgetőbbé téve a hamis tartalmak felderítését.

A mesterséges intelligencia által támogatott videóeszközök minden eddiginél nehezebbé teszik a valódi videók azonosítását. (Forrás: CNET)
A 2024-ben indult és nemrégiben a Sora 2-vel frissített alkalmazás felülete hasonló a TikTokhoz, ahol minden videót mesterséges intelligencia generál. A „cameo” funkció lehetővé teszi, hogy valódi embereket illesszünk be a szimulált felvételekbe, így ijesztően realisztikus videókat hozva létre.
Ezért sok szakértő attól tart, hogy a Sora deepfake-ek terjedését fogja okozni, torzítva az információkat és elmosva a valóság és a hamisítvány közötti határokat. A hírességek különösen sebezhetőek, ezért olyan szervezetek, mint a SAG-AFTRA, felszólították az OpenAI-t a védelem megerősítésére.
A mesterséges intelligencia által generált tartalmak azonosítása komoly kihívást jelent a technológiai vállalatok, a közösségi média platformok és a felhasználók számára egyaránt. Vannak azonban módszerek a Sora segítségével létrehozott videók felismerésére.
Sora vízjel keresése

A Sora vízjel (kék nyíllal jelölve) egy jelölő, amely azonosítja a videó létrehozásához használt eszközt. (Forrás: CNET)
Minden, a Sora iOS alkalmazásban létrehozott videó letöltéskor vízjellel rendelkezik – a fehér Sora logó (felhő ikon) a videó szélei körül mozog, hasonlóan a TikTok vízjeléhez.
Ez egy vizuális módja a mesterséges intelligencia által generált tartalom azonosításának. Például a Google Gemini „nano-banán” modellje automatikusan vízjelet ad a képekhez. A vízjelek azonban nem mindig megbízhatóak. Ha a vízjel statikus, könnyen kivágható. Még a dinamikus vízjelek, mint például a Sora vízjele, speciális alkalmazásokkal eltávolíthatók.
Amikor erről kérdezték, az OpenAI vezérigazgatója, Sam Altman azzal érvelt, hogy a társadalomnak alkalmazkodnia kell ahhoz a valósághoz, hogy bárki készíthet hamis videókat. A Sora előtt soha nem létezett olyan eszköz, amely ennyire népszerű, elérhető és semmilyen szakértelmet nem igényelt volna az ilyen videók készítéséhez. Véleménye kiemeli az alternatív ellenőrzési módszerekre való támaszkodás szükségességét.
Metaadatok ellenőrzése

Metaadatok ellenőrzése – kulcsfontosságú lépés annak megállapításában, hogy egy videót mesterséges intelligencia, például Sora készített-e. (Forrás: Canto)
Azt gondolhatod, hogy a metaadatok ellenőrzése túl bonyolult, de valójában elég egyszerű és nagyon hatékony.
A metaadatok olyan információk halmaza, amelyeket automatikusan csatolnak a tartalomhoz annak létrehozásakor, például a kamera típusa, a helyszín, a felvétel ideje és a fájlnév. Akár ember, akár mesterséges intelligencia által generált a tartalom, metaadatokkal rendelkezik. A mesterséges intelligencia által generált tartalmak esetében a metaadatok gyakran tartalmazzák a forrásmegjelölési információkat.
Az OpenAI tagja a Tartalom Eredetéért és Hitelességéért Koalíciónak (C2PA), így a Sora videók C2PA metaadatokat tartalmaznak majd. Ezt a tartalomhitelesség-kezdeményezés ellenőrző eszközével ellenőrizheted:
A metaadatok ellenőrzése:
- Látogasson el a verify.contentauthenticity.org oldalra
- Töltse fel az ellenőrizni kívánt fájlt.
- Nyomja meg a „Megnyitás” gombot
- Lásd a jobb oldali táblázatban található információkat.
Ha a videót mesterséges intelligencia készítette, az összefoglaló ezt egyértelműen fel fogja tüntetni. A Sora-videók ellenőrzésekor látni fogja az „OpenAI által közzétéve” sort, valamint azt az információt, hogy a videó mesterséges intelligenciával készült. Minden Sora-videónak tartalmaznia kell ezt az információt az eredetének igazolásához.
Forrás: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Hozzászólás (0)