Als je ooit door sociale media hebt gescrold, is de kans groot dat je een door AI gegenereerde afbeelding of video bent tegengekomen. Velen zijn voor de gek gehouden, zoals de virale video van konijnen die op een trampoline springen. Maar Sora, de zusterapp van ChatGPT, ontwikkeld door OpenAI, tilt AI-video naar een hoger niveau en maakt het noodzakelijk om nepcontent te herkennen.

Dankzij AI-videotools is het moeilijker dan ooit om te bepalen wat echt is. (Bron: CNET)
De app, gelanceerd in 2024 en onlangs geüpdatet met Sora 2, heeft een TikTok-achtige interface waarbij elke video door AI wordt gegenereerd. Dankzij de 'cameo'-functie kunnen echte mensen in de gesimuleerde beelden worden geplaatst, waardoor video's ontstaan die zo realistisch zijn dat ze angstaanjagend zijn.
Veel experts vrezen dan ook dat Sora deepfakes zal verspreiden, wat verwarring zal veroorzaken en de grens tussen echt en nep zal vervagen. Beroemdheden zijn bijzonder kwetsbaar, wat organisaties zoals SAG-AFTRA ertoe aanzet OpenAI op te roepen de bescherming te versterken.
Het identificeren van AI-content is een grote uitdaging voor techbedrijven, sociale netwerken en gebruikers. Maar er zijn manieren om video's die met Sora zijn gemaakt te herkennen.
Vind Sora-watermerk

Sora Watermark (groene pijl naar binnen) is een teken waarmee je kunt zien met welke tool de video is gemaakt. (Bron: CNET)
Elke video die je met de Sora iOS-app maakt, krijgt bij het downloaden een watermerk: een wit Sora-logo (wolkicoon) dat langs de randen van de video beweegt, vergelijkbaar met het watermerk van TikTok.
Dit is een intuïtieve manier om door AI gegenereerde content te herkennen. Zo voorziet Google's Gemini "nanobanaan"-model afbeeldingen ook automatisch van watermerken. Watermerken zijn echter niet altijd betrouwbaar. Als het watermerk statisch is, kan het gemakkelijk worden weggesneden. Zelfs dynamische watermerken zoals die van Sora kunnen worden verwijderd met speciale apps.
Gevraagd naar deze vraag, zei OpenAI CEO Sam Altman dat de maatschappij zich moet aanpassen aan het feit dat iedereen nepvideo's kan maken. Vóór Sora bestond er geen dergelijke tool die breed beschikbaar en toegankelijk was en geen vaardigheden vereiste. Zijn standpunt wijst erop dat we moeten vertrouwen op andere verificatiemethoden.
Controleer metagegevens

Het controleren van metadata – een belangrijke stap om te bepalen of een video is gegenereerd door AI, zoals Sora. (Bron: Canto)
U denkt misschien dat het controleren van metadata te ingewikkeld is, maar het is eigenlijk heel eenvoudig en zeer effectief.
Metadata is een set informatie die automatisch aan content wordt gekoppeld wanneer deze wordt gemaakt, zoals cameratype, locatie, opnametijdstip en bestandsnaam. Of het nu om door mensen of AI gegenereerde content gaat, metadata is inbegrepen. Bij AI-content gaan metadata vaak gepaard met informatie die de herkomst ervan verifieert.
OpenAI is lid van de Content Provenance and Authentication Alliance (C2PA), dus Sora-video's bevatten C2PA-metadata. U kunt dit controleren met de verificatietool van het Content Authentication Initiative:
Hoe u metagegevens controleert:
- Bezoek verify.contentauthenticity.org
- Upload het te controleren bestand
- Klik op "Openen"
- Zie de informatie in de tabel rechts.
Als de video door AI is gegenereerd, wordt dit in de samenvatting vermeld. Wanneer je een Sora-video bekijkt, zie je 'gepubliceerd door OpenAI' en informatie die bevestigt dat de video met AI is gegenereerd. Alle Sora-video's moeten deze informatie bevatten om hun oorsprong te verifiëren.
Bron: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Reactie (0)