Pokud jste někdy procházeli sociální sítě, je pravděpodobné, že jste narazili na obrázek nebo video vygenerované umělou inteligencí. Mnozí se nechali oklamat, například virální video králíků skákajících na trampolíně. Sora, sesterská aplikace ChatGPT vyvinutá společností OpenAI, však posouvá videa s umělou inteligencí na další úroveň, takže je nezbytné odhalit falešný obsah.

Nástroje pro tvorbu videa s umělou inteligencí ztěžují více než kdy jindy rozeznání skutečného obsahu. (Zdroj: CNET)
Aplikace, spuštěná v roce 2024 a nedávno aktualizovaná v podobě Sora 2, má rozhraní podobné TikToku, kde je každé video generováno umělou inteligencí. Funkce „cameo“ umožňuje vložit skutečné osoby do simulovaného záběru a vytvořit tak videa, která jsou tak realistická, že jsou děsivá.
V důsledku toho se mnoho odborníků obává, že Sora bude šířit deepfaky, což vyvolává zmatek a stírá hranice mezi skutečným a falešným. Obzvláště zranitelné jsou celebrity, což vede organizace jako SAG-AFTRA k tomu, aby vyzvaly OpenAI k posílení jejích ochranných opatření.
Identifikace obsahu s umělou inteligencí je velkou výzvou pro technologické společnosti, sociální sítě i uživatele. Existují však způsoby, jak rozpoznat videa vytvořená pomocí Sora.
Najít vodoznak Sora

Vodoznak Sora (zelená šipka směřující dovnitř) je značka, která identifikuje nástroj, který video vytvořil. (Zdroj: CNET)
Každé video vytvořené v aplikaci Sora pro iOS dostane po stažení vodoznak – bílé logo Sora (ikona mraku), které se pohybuje po okrajích videa, podobně jako vodoznak na TikToku.
Toto je intuitivní způsob, jak rozpoznat obsah generovaný umělou inteligencí. Například model „nano banán“ od Googlu Gemini také automaticky vkládá do obrázků vodoznaky. Vodoznaky však nejsou vždy spolehlivé. Pokud je vodoznak statický, lze jej snadno oříznout. Dokonce i dynamické vodoznaky, jako je vodoznak od Sory, lze odstranit pomocí specializovaných aplikací.
Na otázku ohledně této problematiky generální ředitel OpenAI Sam Altman uvedl, že společnost se musí přizpůsobit skutečnosti, že falešná videa může vytvářet kdokoli. Před Sorou neexistoval žádný takový nástroj, který by byl široce dostupný, přístupný a nevyžadoval žádné dovednosti. Jeho názor poukazuje na potřebu spoléhat se na jiné metody ověřování.
Zkontrolovat metadata

Kontrola metadat – klíčový krok k určení, zda je video generováno umělou inteligencí, jako je Sora. (Zdroj: Canto)
Možná si myslíte, že kontrola metadat je příliš složitá, ale ve skutečnosti je to docela jednoduché a velmi efektivní.
Metadata jsou sada informací automaticky připojených k obsahu při jeho vytváření, jako je typ kamery, místo, čas natáčení a název souboru. Ať už se jedná o obsah generovaný člověkem nebo umělou inteligencí, metadata jsou součástí obsahu. U obsahu s umělou inteligencí metadata často doprovázejí informace, které ověřují jeho původ.
OpenAI je členem Aliance pro ověřování původu a autentizaci obsahu (C2PA), takže videa Sora budou obsahovat metadata C2PA. Můžete si to ověřit pomocí ověřovacího nástroje Iniciativy pro ověřování obsahu:
Jak zkontrolovat metadata:
- Navštivte stránky verify.contentauthenticity.org
- Nahrajte soubor ke kontrole
- Klikněte na „Otevřít“
- Viz informace v tabulce vpravo.
Pokud bylo video vygenerováno umělou inteligencí, bude to uvedeno v souhrnu. Když si video Sora zkontrolujete, uvidíte „publikováno OpenAI“ a informace potvrzující, že video bylo vygenerováno pomocí umělé inteligence. Všechna videa Sora musí tuto informaci obsahovat, aby se ověřil jejich původ.
Zdroj: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Komentář (0)