Jeśli kiedykolwiek przeglądałeś media społecznościowe, prawdopodobnie natknąłeś się na obraz lub wideo wygenerowane przez sztuczną inteligencję. Wiele osób dało się nabrać, jak na przykład na viralowe wideo z królikami skaczącymi na trampolinie. Jednak Sora, siostrzana aplikacja ChatGPT opracowana przez OpenAI, przenosi wideo oparte na sztucznej inteligencji na wyższy poziom, sprawiając, że rozpoznawanie fałszywych treści staje się koniecznością.

Narzędzia wideo oparte na sztucznej inteligencji sprawiają, że trudniej niż kiedykolwiek odróżnić prawdę od fałszu. (Źródło: CNET)
Aplikacja, wprowadzona na rynek w 2024 roku i niedawno zaktualizowana o Sora 2, ma interfejs przypominający TikToka, w którym każdy film jest generowany przez sztuczną inteligencję. Funkcja „cameo” pozwala na wstawienie prawdziwych osób do symulowanego materiału, tworząc filmy tak realistyczne, że aż przerażające.
W rezultacie wielu ekspertów obawia się, że Sora będzie rozpowszechniać deepfake'i, wprowadzając zamieszanie i zacierając granice między autentycznością a fałszem. Szczególnie narażone są celebryci, co skłoniło organizacje takie jak SAG-AFTRA do apelu do OpenAI o wzmocnienie zabezpieczeń.
Identyfikacja treści AI to duże wyzwanie dla firm technologicznych, sieci społecznościowych i użytkowników. Istnieją jednak sposoby na rozpoznawanie filmów stworzonych za pomocą Sora.
Znajdź znak wodny Sora

Znak wodny Sora (zielona strzałka skierowana do środka) to znak informujący o narzędziu, za pomocą którego utworzono dany film. (Źródło: CNET)
Każdy film utworzony w aplikacji Sora na iOS otrzymuje po pobraniu znak wodny – białe logo Sora (ikona chmury) poruszające się wzdłuż krawędzi filmu, podobnie jak znak wodny TikToka.
To intuicyjny sposób rozpoznawania treści generowanych przez sztuczną inteligencję. Na przykład model „nano banana” Google Gemini również automatycznie dodaje znaki wodne do obrazów. Jednak znaki wodne nie zawsze są niezawodne. Jeśli znak wodny jest statyczny, można go łatwo wyciąć. Nawet dynamiczne znaki wodne, takie jak te w Sorze, można usunąć za pomocą dedykowanych aplikacji.
Zapytany o to, prezes OpenAI, Sam Altman, powiedział, że społeczeństwo musi się pogodzić z faktem, że każdy może tworzyć fałszywe filmy. Przed Sorą nie istniało takie narzędzie, które byłoby powszechnie dostępne i nie wymagałoby żadnych umiejętności. Jego pogląd wskazuje na potrzebę polegania na innych metodach weryfikacji.
Sprawdź metadane

Sprawdzanie metadanych – kluczowy krok w ustaleniu, czy film został wygenerowany przez sztuczną inteligencję, taką jak Sora. (Źródło: Canto)
Można by pomyśleć, że sprawdzanie metadanych jest zbyt skomplikowane, ale tak naprawdę jest całkiem proste i bardzo skuteczne.
Metadane to zbiór informacji automatycznie dołączanych do treści w momencie ich tworzenia, takich jak typ kamery, lokalizacja, czas filmowania i nazwa pliku. Niezależnie od tego, czy treść jest generowana przez człowieka, czy przez sztuczną inteligencję, metadane są uwzględniane. W przypadku treści generowanych przez sztuczną inteligencję metadane często towarzyszą informacjom potwierdzającym ich pochodzenie.
OpenAI jest członkiem Content Provenance and Authentication Alliance (C2PA), więc filmy Sora będą zawierać metadane C2PA. Możesz to sprawdzić za pomocą narzędzia weryfikacyjnego Content Authentication Initiative:
Jak sprawdzić metadane:
- Odwiedź verify.contentauthenticity.org
- Prześlij plik do sprawdzenia
- Kliknij „Otwórz”
- Zobacz informacje w tabeli po prawej stronie.
Jeśli film został wygenerowany przez sztuczną inteligencję, podsumowanie to potwierdzi. Po sprawdzeniu filmu Sora zobaczysz komunikat „opublikowano przez OpenAI” oraz informację potwierdzającą, że film został wygenerowany przez sztuczną inteligencję. Wszystkie filmy Sora muszą zawierać tę informację, aby zweryfikować ich pochodzenie.
Źródło: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Komentarz (0)