Aceștia sunt răufăcători care folosesc tehnologia inteligenței artificiale (IA) pentru a edita fețele și corpurile oamenilor obișnuiți, transformându-i în persoane cu dizabilități, apoi creând povești triste pentru a vinde produse sau a cere sprijin. Singurul scop este de a profita de compasiunea comunității pentru profiturile ilegale.

Trucuri sofisticate
Un caz tipic care a provocat indignare publică a fost canalul TikTok numit NL, care a postat o serie de videoclipuri despre o femeie cu ambele brațe amputate, care încerca să vândă produse online pentru a-și sprijini copiii mici. În videoclipuri, femeia apărea într-o cameră simplă, purtând haine simple, folosindu-și brațul amputat pentru a introduce produse, făcând spectatorii emoționați și empatici. Mulți oameni nu au ezitat să dea clic pentru a urmări, a distribui pe scară largă și chiar a comanda produse pentru a ajuta mama să depășească dificultățile. Cu toate acestea, când videoclipurile au devenit virale, comunitatea online și-a dat seama că aceasta era de fapt imaginea unei vânzătoare obișnuite, editată cu tehnologia inteligenței artificiale pentru a arăta ca o persoană cu dizabilități reală.
Trucul de a apela la sentimente de milă a devenit o capcană care îi face pe mulți oameni dispuși să transfere bani sau să plaseze comenzi, deoarece cred că ajută o persoană slabă și defavorizată. Domnul Dang Minh Quang, de pe strada Ngoc Lam, Bo De Ward ( Hanoi ), a împărtășit: „Mama mea a crezut în videoclipul cu o femeie cu un braț amputat care vindea bunuri, așa că i-a părut rău și a comandat niște produse vândute de această persoană. Când a aflat adevărul, că persoana cu dizabilități era doar o imagine creată de inteligența artificială, a fost foarte tristă și s-a simțit jignită.”
Povestea mamei lui Quang nu este unică. Sute de alte persoane au fost înșelate în mod similar. Atunci când se profită de bunătate, oamenii își pierd treptat încrederea și devin ezitanți la apelurile sincere de ajutor. Iar consecința dureroasă este că cei vulnerabili sunt cu adevărat grav răniți. Pe contul său personal de Facebook, Nguyen Sin a împărtășit cazul doamnei Tran Thi Nga (36 de ani din provincia Phu Tho ) - proprietara canalului „Nga Tic Cuc”, care este o persoană cu dizabilități (la sfârșitul anului 2024, din cauza unei miocardite acute, a fost forțată să-și amputeze ambele brațe și picioare pentru a-și salva viața), cunoscută de mulți oameni pentru că inspiră în mod regulat cu voința ei optimistă de a trăi. Cu toate acestea, după ce au apărut numeroase cazuri de uzurpare a identității persoanelor cu dizabilități folosind inteligența artificială, doamna Nga a fost suspectată că folosește inteligența artificială pentru a se da drept persoane cu dizabilități.
În transmisiunile în direct recente, dna Nga a fost supărată de multe ori când unii utilizatori de socializare i-au cerut în mod repetat să „ridice mâna” sau să „se târască” pentru a demonstra că are cu adevărat un handicap. Aceste cereri nerezonabile și crude au rănit-o profund. Povestea lui „Active Nga” este o dovadă sfâșietoare a cât de dăunător poate fi abuzul tehnologic.
Abilități de recunoaștere a conținutului fals generat de inteligența artificială
Potrivit Ministerului Securității Publice, în 2024, Vietnamul a înregistrat peste 6.000 de cazuri de fraudă online, provocând o pierdere estimată la aproximativ 12.000 de miliarde de VND. În doar 8 luni ale anului 2025, au fost descoperite și aproape 1.500 de cazuri de fraudă online. Acest număr reflectă în mod clar nivelul periculos al criminalității de înaltă tehnologie, în contextul în care țara noastră are peste 78 de milioane de utilizatori de internet și 72 de milioane de utilizatori de rețele sociale. Spațiul cibernetic devine un teren fertil pentru trucuri de fraudă din ce în ce mai sofisticate, în care utilizarea inteligenței artificiale pentru a crea conținut fals este cea mai mare amenințare în prezent.
Confruntați cu această realitate alarmantă, autoritățile și experții în securitate cibernetică recomandă ca oamenii să se doteze cu cunoștințe și abilități pentru a identifica conținutul fals. Secretarul adjunct al Uniunii Tinerilor din cadrul Poliției din Sectorul Long Bien (Hanoi), Nguyen Nhat Ha, a menționat că oamenii ar trebui să monitorizeze în mod regulat sursele oficiale de informații, să își actualizeze proactiv cunoștințele despre tehnologie și noile forme de fraudă. În special, aceștia trebuie să fie întotdeauna vigilenți și să își amintească principiile de bază, care sunt verificarea cu atenție a surselor de informații, nefurnizarea de informații personale către surse neverificate, neaccesarea de link-uri necunoscute și netransferul de bani către conturi neverificate.
Pentru a identifica videoclipurile generate de inteligența artificială, potrivit experților în securitate cibernetică, utilizatorii ar trebui să observe cu atenție detaliile imaginii, mișcările faciale, membrele sau sunetele. Semne precum ochii goi, mișcări nenaturale, vorbire întârziată sau mișcări nepotrivite ale buzelor sunt adesea semne ale tehnologiei Deepfake.
În plus, verificarea informațiilor postate de canal, citirea comentariilor și vizualizarea istoricului activității sunt, de asemenea, modalități simple de a evalua fiabilitatea. Pe lângă acestea, utilizatorii trebuie să își formeze obiceiul de a verifica înainte de a crede. Indiferent cât de emoționant este un videoclip, acesta nu ar trebui distribuit sau susținut în grabă.
Experții au cerut, de asemenea, platformelor de socializare să consolideze cenzura, să identifice conținutul care folosește inteligența artificială pentru a se da drept persoane cu dizabilități și să gestioneze cu strictețe conturile care încalcă regulile. De asemenea, autoritățile trebuie să emită în curând reglementări clare privind utilizarea imaginilor și conținutului bazate pe inteligență artificială, asigurându-se că tehnologia nu devine un instrument pentru comportamente lipsite de etică din partea actorilor rău intenționați.
Sursă: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Comentariu (0)