Dacă ați navigat vreodată pe rețelele de socializare, probabil ați dat peste o imagine sau un videoclip generat de inteligență artificială. Mulți au fost păcăliți, cum ar fi videoclipul viral cu iepuri care sar pe o trambulină. Dar Sora, aplicația soră a ChatGPT, dezvoltată de OpenAI, duce videoclipurile generate de inteligența artificială la nivelul următor, făcând imperativă detectarea conținutului fals.

Instrumentele video bazate pe inteligență artificială fac mai dificil ca niciodată să știi ce este real. (Sursa: CNET)
Lansată în 2024 și recent actualizată cu Sora 2, aplicația are o interfață asemănătoare TikTok-ului, unde fiecare videoclip este generat de inteligența artificială. Funcția „cameo” permite inserarea unor persoane reale în filmările simulate, creând videoclipuri atât de realiste încât sunt înfricoșătoare.
Prin urmare, mulți experți se tem că Sora va răspândi deepfake-uri, creând confuzie și estompând granițele dintre real și fals. Vedetele sunt deosebit de vulnerabile, ceea ce a determinat organizații precum SAG-AFTRA să apeleze la OpenAI pentru a-i consolida protecțiile.
Identificarea conținutului bazat pe inteligență artificială este o mare provocare atât pentru companiile de tehnologie, cât și pentru rețelele sociale și utilizatori. Există însă modalități de a recunoaște videoclipurile create cu Sora.
Găsește filigranul Sora

Filigranul Sora (săgeata verde îndreptată spre interior) este un semn care identifică instrumentul care a creat videoclipul. (Sursa: CNET)
Fiecare videoclip creat în aplicația Sora pentru iOS primește un filigran la descărcare – un logo Sora alb (pictogramă nor) care se mișcă pe marginile videoclipului, similar cu filigranul TikTok.
Aceasta este o modalitate intuitivă de a recunoaște conținutul generat de inteligența artificială. De exemplu, modelul Gemini „nano banană” de la Google adaugă automat filigrane imaginilor. Cu toate acestea, filigranele nu sunt întotdeauna fiabile. Dacă filigranul este static, poate fi ușor decupat. Chiar și filigranele dinamice, precum cel al lui Sora, pot fi eliminate folosind aplicații dedicate.
Când a fost întrebat despre acest lucru, CEO-ul OpenAI, Sam Altman, a spus că societatea trebuie să se adapteze la faptul că oricine poate crea videoclipuri false. Înainte de Sora, nu exista un astfel de instrument disponibil pe scară largă, accesibil și care să nu necesite competențe. Opinia sa indică necesitatea de a se baza pe alte metode de verificare.
Verificați metadatele

Verificarea metadatelor – un pas cheie în determinarea dacă un videoclip este generat de inteligența artificială, precum Sora. (Sursa: Canto)
S-ar putea să credeți că verificarea metadatelor este prea complicată, dar de fapt este destul de simplă și foarte eficientă.
Metadatele sunt un set de informații atașate automat conținutului atunci când acesta este creat, cum ar fi tipul camerei, locația, ora filmării și numele fișierului. Indiferent dacă este vorba de conținut generat de om sau de inteligență artificială, metadatele sunt incluse. În cazul conținutului generat de inteligența artificială, metadatele însoțesc adesea informațiile care îi autentifică originea.
OpenAI este membru al Content Provenance and Authentication Alliance (C2PA), așadar videoclipurile Sora vor conține metadate C2PA. Puteți verifica folosind instrumentul de verificare al Content Authentication Initiative:
Cum se verifică metadatele:
- Vizitați verify.contentauthenticity.org
- Încărcați fișierul care va fi verificat
- Faceți clic pe „Deschidere”
- Consultați informațiile din tabelul din dreapta.
Dacă videoclipul a fost generat de inteligența artificială, rezumatul va preciza acest lucru. Când verificați un videoclip Sora, veți vedea „publicat de OpenAI” și informații care confirmă că videoclipul a fost generat cu ajutorul inteligenței artificiale. Toate videoclipurile Sora trebuie să conțină aceste informații pentru a le verifica originea.
Sursă: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Comentariu (0)