Mai jos sunt opiniile a doi experți de la Universitatea RMIT cu privire la efectele nocive ale deepfake-urilor și soluțiile propuse pentru această problemă:
Dr. Jonathan Crellin (stânga) și Dr. Nguyen Van Thang Long (dreapta). (Sursa: Universitatea RMIT) |
Infractorii cibernetici exploatează noile tehnologii în moduri neprevăzute
Dr. Jonathan Crellin, Șeful Departamentului de Securitate a Informațiilor, Facultatea de Științe , Inginerie și Tehnologie, Universitatea RMIT :
Deepfake este o imagine generată automat care poate combina imagini sau videoclipuri din mai multe surse, creând o imagine, un videoclip sau chiar un sunet foarte realist.
Deepfake se bazează pe o tehnică din domeniul inteligenței artificiale numită învățare automată, care poate înlocui și integra elemente precum fața unei persoane într-o altă imagine sau videoclip.
Un exemplu de utilizare a deepfake-urilor este combinarea conținutului pornografic cu fotografii cu Taylor Swift pentru a crea imagini false.
Pentru a realiza acest lucru, creierul avea nevoie de o serie de imagini, astfel încât software-ul să poată afla despre expresiile faciale ale cântăreței, apoi să le combine cu conținut pornografic pentru a crea fotografii obscene, ceea ce a dus la pătarea imaginii cântăreței.
De fapt, se zvonește că aceste fotografii au fost publicate de un grup Telegram și au fost create folosind instrumentul Microsoft Designer cu suport integrat pentru inteligență artificială.
Oricine poate deveni victimă, deoarece răufăcătorii au nevoie doar de o fotografie, un videoclip sau o înregistrare audio a persoanei care este uzurpată.
Știrile false, sub diverse forme, au potențialul de a fi folosite pentru a crea știri false și putem spune cu siguranță că viitoarele alegeri prezidențiale din SUA vor fi pline de astfel de știri false.
În prezent, legiuitorii din întreaga lume încearcă să adopte legi împotriva acestui tip de imagini.
În Statele Unite încep să fie adoptate mai multe abordări în ceea ce privește legislația, cum ar fi recurgerea la procese civile sau la legi care să abordeze „diseminarea imaginilor cu caracter sexual explicit ale unei persoane generate de inteligența artificială fără consimțământul acelei persoane”.
China a introdus, de asemenea, noi reglementări care ar permite urmărirea penală a celor care răspândesc imagini generate de inteligența artificială.
Regatul Unit a interzis distribuirea de conținut deepfake în temeiul legii sale privind siguranța online.
Cum să detectăm sau să prevenim acest lucru?
Primul pas este să reduci numărul de fotografii, videoclipuri sau înregistrări audio pe care le ai online. Asigură-te că le distribui doar cu persoanele pe care le cunoști, nu le postezi pe scară largă online. Odată ce ceva se află pe internet, este aproape imposibil să îl elimini.
A doua modalitate este să te pui de acord asupra unui cuvânt secret cu familia ta pentru a autentifica apelul, reducând riscul de a cădea în capcana unui apel fals.
Imaginile, în special videoclipurile, pot conține erori ciudate (care par a fi înscenizate). Dacă observați aceste erori, există șanse mari ca imaginea sau sunetul să fi fost falsificate.
O altă tehnică ce poate fi utilizată este căutarea „imagine inversă” pe Google sau pe alte motoare de căutare, pentru a determina sursa imaginii originale.
Lecția finală este să nu credeți orbește ce vedeți, camera (sau inteligența artificială) poate minți!
Deepfake-urile reprezintă o amenințare uriașă pentru celebrități și politicieni
Dr. Nguyen Van Thang Long, lector universitar, Facultatea de Comunicare și Design, Universitatea RMIT :
Odată cu proliferarea știrilor false provenite de la deepfake-uri, echipele media formate din celebrități și politicieni trebuie să aibă resurse disponibile pentru a monitoriza și a răspunde prompt la știrile false sau pentru a corecta în mod continuu știrile false.
Dacă deepfake-urile sunt combinate sistematic cu forme organizate de „dirty PR”, această sarcină devine și mai dificilă din cauza proliferării informațiilor contradictorii, iar știrile false și negative vor fi întotdeauna distribuite mai mult decât știrile pozitive.
De obicei, atunci când văd știri distribuite pe rețelele de socializare, indivizii au adesea obiceiul de a verifica informațiile prin canalele media oficiale.
Având în vedere că rețelele de socializare sunt inundate de conținut deepfake, verificarea acurateței știrilor mainstream devine din ce în ce mai dificilă și consumă din ce în ce mai mult timp, necesitând cercetări aprofundate și tehnici de verificare.
Cu cât amânăm mai mult verificarea știrilor și a surselor, cu atât este mai probabil să se răspândească informații false, fabricate sau înșelătoare, din cauza vitezei rapide de distribuire și comentarii pe rețelele de socializare.
Acest lucru exacerbează problema de bază și are potențialul de a duce la tulburări sociale, mai ales dacă conținutul se referă la discursuri politice, religie, gen, strategii de afaceri sau probleme macroeconomice.
În contextul proliferării deepfake-urilor, cea mai eficientă strategie de gestionare a riscurilor rămâne menținerea unor canale de comunicare consecvente, prin intermediul platformelor de socializare populare, site-urilor web sau al întâlnirilor față în față, între companii, celebrități, politicieni și părți interesate cheie, cum ar fi fanii, presa, comunitățile și angajații.
Utilizarea sporită a inteligenței artificiale aduce atât beneficii, cât și probleme noi și neașteptate. Fotografie ilustrativă. (Sursa: Freepik) |
Prin menținerea acestor canale de comunicare, primirea informațiilor legate de deepfake-uri devine mai rapidă, permițând corectarea zvonurilor la timp și eficientă, expunând dezinformarea încă de la început.
Cu toate acestea, companiile, vedetele și politicienii trebuie să dezvolte un plan de gestionare a crizelor specific pentru deepfake-uri. De exemplu, cine raportează, prin ce canale media, criterii pentru verificarea informațiilor prin dovezi și surse reputate, stabilirea unui calendar pentru gestionarea zvonurilor și conturarea unei strategii pentru restabilirea reputației.
Cu un plan metodic și bine pregătit, gestionarea crizei deepfake va fi mai fezabilă, reducând la minimum consecințele nefericite care pot apărea.
Sursă
Comentariu (0)