Vietnam.vn - Nền tảng quảng bá Việt Nam

Utilizarea inteligenței artificiale pentru a combina imagini sensibile în scopul șantajului

Pornind de la o fotografie virtuală postată pe rețelele de socializare, răufăcătorii pot folosi instrumente de inteligență artificială (IA) pentru a crea fotografii sexy, chiar nud, sau pot introduce fețe realiste în videoclipuri sensibile pentru a defăima și șantaja victima.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Infractorii pot folosi inteligența artificială pentru a combina fotografii și videoclipuri sensibile pentru a defăima și șantaja alte persoane - Fotografie: Desen cu inteligență artificială

În trecut, când se vorbea despre tehnica de decupare și lipire a feței unei persoane pe corpul altei persoane, oamenii foloseau adesea Photoshop sau software specializat de editare foto - care este laborios și ușor de recunoscut cu ochiul liber.

Acum, cu instrumentele de inteligență artificială, oamenii pot face asta foarte ușor în „câteva notițe”, dar nu este ușor de detectat cu ochiul liber.

Videoclip sexual cu schimb de fețe pentru șantaj

Datorită legăturilor de serviciu, domnul H. (directorul unei afaceri din orașul Ho Și Min) interacționează adesea pe rețelele de socializare.

Odată, s-a împrietenit cu o tânără care l-a întrebat despre munca lui. După o vreme în care au stat de vorbă, au stat de vorbă, au împărtășit despre viața profesională și personală, cei doi au părut destul de apropiați.

Au existat, de asemenea, numeroase mesaje text între cei doi cu cuvinte foarte afectuoase, alături de poze trimise reciproc și apeluri video pentru a se vedea.

Într-o zi, domnul H. a primit brusc un telefon de la un bărbat care pretindea că este soțul fetei. După un act „preventiv” împotriva domnului H., „soțul” i-a cerut să transfere banii în schimb, altfel va trimite fotografii din conversațiile lor și videoclipuri sexuale rudelor și partenerilor săi de afaceri.

Apoi, domnului H. i s-a arătat de către „soțul” său un videoclip sexual cu el și cealaltă fată, împreună cu un apel video între cei doi, și au fost surprinse mesaje text intime...

„Nu am întâlnit niciodată fata aia, așa că sunt sigur că videoclipul sexual este o imagine modificată cu Photoshop” - a afirmat domnul H. Cu toate acestea, imaginea feței fetei din videoclipul sexual și a fetei din apelul video sunt aceleași, împreună cu o fotografie a mesajului text afectuos, obligându-l pe domnul H. să transfere bani „soțului” său de mai multe ori pentru a-și păstra reputația.

În urma anchetei lui Tuoi Tre , domnul H. a fost înșelat într-un mod organizat, urmând un scenariu perfect. În această înșelătorie, domnul H. a fost păcălit de două ori prin deepfake. Prima dată a fost un apel video, iar a doua oară un videoclip sexual.

În videoclipul sexual, fața domnului H. a fost grefată cu atâta măiestrie încât spectatorilor le-a fost greu să creadă că este vorba de un videoclip cu grefă facială. Un expert în inteligență artificială i-a confirmat lui Tuoi Tre că răufăcătorii au folosit un nou instrument de inteligență artificială care putea grefa fețe perfect pe videoclipuri... ca pe unele reale.

Instrumentele AI pentru schimbarea feței abundă

În prezent, există numeroase instrumente de aplicații AI care au funcții precum crearea oricărei persoane cu fața dorită și îmbinarea feței dorite cu corpul altei persoane.

Printre acestea, există instrumente cu funcții care servesc unor scopuri nepotrivite, cum ar fi transformarea fotografiilor normale în fotografii nud prin „dezbrăcarea” persoanei din fotografie sau înlocuirea feței unei persoane în videoclipuri cu o față dorită...

Majoritatea acestor instrumente de inteligență artificială sunt disponibile pentru versiune de probă, dar plata pentru ele vă va oferi funcții complete cu un timp de transformare foarte rapid.

De exemplu, cu funcția față în corp, utilizatorii trebuie doar să încarce două fotografii corespunzătoare și să aștepte câteva secunde pentru rezultate.

Sau cu funcția de a crea fotografii nud din fotografii normale, instrumentul AI poate face acest lucru foarte rapid, în doar câteva zeci de secunde, făcând spectatorii să tresară.

Chiar și funcția de înlocuire a fețelor în videoclipurile sexuale, instrumentul AI o face foarte rapid, durând mai puțin de un minut pentru videoclipuri care durează câteva secunde.

Într-o discuție cu Tuoi Tre , dl. Nguyen Kim Tho, șeful echipei de cercetare și dezvoltare a companiei de securitate cibernetică VNetwork, a analizat termenul deepfake, care se referă la videoclipuri și imagini false create cu ajutorul inteligenței artificiale pentru a-i face pe spectatori să creadă că sunt reale.

Tehnologia Deepfake folosește modele de deep learning, cum ar fi rețelele neuronale, pentru a analiza datele faciale și vocale ale unei persoane și pentru a crea conținut fals care arată exact ca acea persoană.

„Datorită unor algoritmi puternici, răufăcătorii pot introduce chipul victimei în videoclipuri sensibile (de exemplu, videoclipuri „în pat”, pornografie) sau pot edita imagini pentru a crea fotografii nud false.”

„Software-ul și aplicațiile deepfake sunt acum foarte populare pe internet, chiar și cu aplicații mobile, cod open source sau servicii online gratuite - facilitând accesul oricui la instrumente pentru a crea videoclipuri și fotografii false, așa că oamenii trebuie să fie vigilenți”, a declarat dl Tho.

Stai departe de „chaturile sexuale”

Multe escrocherii încep prin a-ți face prieteni online și apoi a păcăli victima pentru a participa la „chat sexual” sau a trimite fotografii sensibile. Prin urmare, utilizatorii nu ar trebui să trimită niciodată fotografii sau videoclipuri private persoanelor pe care le întâlnesc doar online, indiferent de promisiunile sau amenințările pe care le fac.

Rețineți întotdeauna că orice conținut distribuit (chiar și prin mesaje private) poate fi înregistrat (captură de ecran, videoclip) și apoi editat și folosit împotriva dumneavoastră.

Dacă faceți apeluri video, fiți atenți la străinii care vă cer conținut sensibil - ar putea fi un ecran fals sau ar putea înregistra.

Experții în securitate cibernetică îi sfătuiesc pe utilizatori să nu aibă niciodată încredere în nimeni doar prin contact online și să verifice identitatea și intențiile celeilalte persoane înainte de a partaja orice informație sensibilă.

În plus, dacă primiți un mesaj text sau un apel prin care vi se amenință că veți publica fotografii „fierbinți” pentru șantaj, utilizatorii nu trebuie să se teamă sau să se grăbească să transfere bani.

Plata nu garantează că răufăcătorii vor șterge videoclipul; este posibil să continue să ceară mai mult sau să posteze conținutul online oricum, spun experții.

În loc să urmeze solicitările infractorilor, utilizatorii ar trebui să adune dovezi (mesaje, numere de telefon, conturi de contact, conținut amenințător...) și să raporteze imediat la cea mai apropiată agenție de poliție sau să raporteze incidentul prin intermediul aplicației VNeID a Ministerului Securității Publice pentru asistență promptă.

Cum să identifici?

Potrivit domnului Nguyen Kim Tho, distincția dintre imaginile și videoclipurile reale și deepfake-uri devine din ce în ce mai dificilă, dar există încă unele semne de identificare și instrumente de sprijin.

Utilizatorii pot observa manual, deoarece conținutul deepfake are uneori anomalii de imagine și sunet.

De exemplu, o imagine compozită poate afișa zgomot sau diferențe de culoare între fața și corpul din imaginea compozită. Un videoclip fals poate avea neconcordanțe audio și video (mișcări ale buzelor care nu corespund vorbirii) sau expresii faciale care par rigide și nenaturale.

Anterior, unele videoclipuri deepfake făceau ca personajele să nu clipească sau iluminarea și umbrele de pe față nu se potriveau cu contextul - acestea fiind semne că videoclipul a fost editat.

Deși tehnologia se îmbunătățește (de exemplu, noile deepfake-uri au adăugat mișcări realiste de clipit), spectatorii atenți pot observa în continuare unele detalii ilogice în videoclipuri și fotografii.

Cercetătorii dezvoltă acum numeroși algoritmi pentru a detecta automat urmele deepfake.

Conținutul generat de inteligența artificială lasă adesea o „amprentă digitală” distinctă în fiecare pixel pe care mașinile o pot recunoaște.

De exemplu, Intel a introdus primul detector de deepfake-uri în timp real, capabil să analizeze videoclipuri și să determine dacă personajele din acestea sunt persoane reale sau generate de inteligența artificială.

În plus, unele site-uri web permit utilizatorilor să încarce videoclipuri și fotografii pentru a verifica autenticitatea imaginilor (de exemplu, Deepware, instrumentele Sensity AI...). Aceste sisteme sunt actualizate constant pentru a ține pasul cu noile tehnici de deepfake.

În special, utilizatorii pot verifica sursa postării și contextul atunci când întâlnesc un videoclip sau o imagine sensibilă, deoarece multe videoclipuri deepfake sunt răspândite prin conturi false sau boți de pe rețelele sociale.

„Dacă conținutul sensibil despre o persoană provine dintr-o sursă neoficială sau dintr-un cont anonim, fiți sceptici în ceea ce privește autenticitatea acestuia. Puteți încerca să contactați direct persoana prezentată în conținut pentru a verifica dacă a făcut-o într-adevăr.”

„În plus, proiecte precum [contextul/etc.] promovează încorporarea informațiilor de autentificare (semnături digitale) în fotografii și videoclipuri chiar din momentul creării, ajutând la distingerea conținutului original de cel editat. În viitor, utilizatorii pot folosi aceste semne de autentificare pentru a identifica conținut de încredere”, a declarat dl. Tho.

5 sfaturi pentru a te proteja

1. Limitați partajarea fotografiilor și videoclipurilor sensibile și private (în special fotografiile cu nud, fotografiile de familie, fotografiile cu copii).

2. Setează-ți conturile de socializare ca private (partajează-le doar cu persoane de încredere).

3. Nu oferiți prea multe informații personale (nume complet, număr de telefon, adresă...) pe rețelele de socializare publice.

4. Setați parole puternice și activați verificarea în doi pași pentru conturile dvs. pentru a evita atacurile cibernetice.

5. Căutați-vă regulat numele și imaginea pe Google (sau folosiți instrumente de căutare inversă de imagini precum Google Image, TinEye) pentru a vedea dacă vreuna dintre fotografiile dvs. a fost postată fără permisiune și solicitați imediat eliminarea lor.

Citeşte mai mult Înapoi la subiecte
VIRTUTE

Sursă: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Comentariu (0)

No data
No data

În aceeași categorie

Orașul Ho Și Min: Strada cu felinare Luong Nhu Hoc este colorată pentru a întâmpina Festivalul de la Mijlocul Toamnei
Păstrând spiritul Festivalului de la Mijlocul Toamnei prin culorile figurinelor
Descoperă singurul sat din Vietnam din top 50 cele mai frumoase sate din lume
De ce sunt populare anul acesta felinarele cu steaguri roșii și stele galbene?

De același autor

Patrimoniu

Figura

Afaceri

No videos available

Ştiri

Sistem politic

Local

Produs