Deepfake-ul este acum o preocupare majoră, deoarece numărul escrocheriilor bazate pe tehnologie continuă să crească.
După ce au cercetat forumurile Darknet, unde operează adesea infractorii cibernetici, experții în securitate au descoperit că existau atât de mulți infractori care foloseau Deepfake pentru fraudă, încât cererea depășea cu mult oferta de software Deepfake existentă în prezent pe piață.
Pe măsură ce cererea depășește oferta, experții Kaspersky prevăd că escrocheriile Deepfake vor crește, cu forme mai diverse și mai sofisticate: de la oferirea unui videoclip de imitație de înaltă calitate până la utilizarea imaginilor cu celebrități în transmisiuni live false pe rețelele de socializare, promițând că vor plăti dublul sumei trimise de victimă.
Conform sistemului de referință informațională Regula, 37% dintre companiile din întreaga lume s-au confruntat cu fraude vocale Deepfake, iar 29% au căzut victime ale videoclipurilor Deepfake.
Această tehnologie a devenit o amenințare la adresa securității cibernetice în Vietnam, unde infractorii cibernetici folosesc adesea apeluri video false pentru a se da drept persoane cu scopul de a împrumuta bani de la rudele și prietenii acestora.
Un apel video Deepfake poate dura doar un minut, ceea ce face dificilă pentru victime să facă distincția între real și fals.
Deepfake devine treptat un „coșmar” în escrocheriile online sofisticate.
„ Deepfake a devenit un coșmar pentru femei și societate. Infractorii cibernetici exploatează inteligența artificială (IA) pentru a insera fețele victimelor în fotografii și videoclipuri pornografice, precum și în campanii de propagandă.”
„Aceste formulare au ca scop manipularea opiniei publice prin răspândirea de informații false, chiar afectând reputația organizațiilor sau a persoanelor”, a declarat dna Vo Duong Tu Diem, directoarea regională Kaspersky pentru Vietnam.
Deși inteligența artificială este utilizată abuziv de infractori în scopuri rău intenționate, persoanele fizice și companiile pot folosi în continuare inteligența artificială pentru a identifica Deepfake-urile, reducând probabilitatea de succes a escrocheriilor.
Prin urmare, utilizatorii vor avea la dispoziție câteva soluții utile pentru a se proteja de escrocherii, cum ar fi utilizarea unui software de detectare a conținutului generat de inteligență artificială (folosind algoritmi avansați pentru a analiza și determina nivelul de editare al imaginilor/videoclipurilor/sunetelor).
Pentru videoclipurile Deepfake, există instrumente disponibile care pot detecta mișcările gurii și vorbirea nepotrivită. Unele programe sunt chiar suficient de puternice pentru a detecta fluxul sanguin anormal sub piele prin analizarea rezoluției video, deoarece venele umane își schimbă culoarea atunci când inima pompează sânge.
În plus, există și un filigran care acționează ca o marcă de identificare în imagini, videoclipuri etc., pentru a ajuta autorii să protejeze drepturile de autor ale produselor de inteligență artificială. Această caracteristică poate deveni o armă împotriva Deepfake-ului, deoarece ajută la urmărirea originii platformei care creează inteligența artificială. Utilizatorii cu un anumit nivel de cunoștințe tehnologice pot găsi o modalitate de a urmări originea conținutului pentru a compara modul în care datele originale au fost editate de „mâinile” inteligenței artificiale.
În prezent, unele tehnologii emergente utilizează algoritmi de criptare pentru a insera valori hash la intervale de timp stabilite în videoclip. Dacă videoclipul a fost editat, valoarea hash se va schimba și de acolo utilizatorii pot verifica dacă conținutul a fost modificat sau nu.
Au existat în trecut câteva tutoriale despre găsirea anomaliilor în videoclipuri, de exemplu, abateri de culoare, mișcări nenaturale ale grupurilor musculare, ale ochilor... Cu toate acestea, inteligența artificială devine din ce în ce mai inteligentă, așa că aceste valori nu dau întotdeauna rezultate corecte.
Procesul de verificare a fiabilității videoclipurilor nu se mai bazează pe ochiul liber, ci necesită instrumente tehnologice create cu scopul de a preveni și detecta conținutul fals.
Khanh Linh
Sursă
Comentariu (0)