E timpul ca fiecare utilizator să devină un „scut digital”, să fie alert, vigilent și responsabil pentru fiecare clic și distribuire.
Beneficii și linia fină a inteligenței artificiale
Inteligența artificială nu a fost niciodată mai aproape de viață decât este astăzi. Doar câteva clicuri, o comandă scurtă pot crea voci, imagini, chiar și videoclipuri cu un realism uimitor. IA ajută la economisirea timpului, la reducerea costurilor de producție de conținut și la deschiderea erei mediilor digitale flexibile.
Totuși, capacitatea de a „simula realist” a devenit o sabie cu două tăișuri. Recent, pe rețelele de socializare au apărut în mod constant videoclipuri create din tehnologia deepfake, în care fețele liderilor poliției, imagini ale forțelor funcționale în cazuri sensibile... sunt copiate și lipite, dublate cu voci distorsionate pentru a provoca neînțelegeri și a diviza oamenii.
Imagini puse în scenă ca aceasta apar din ce în ce mai des pe rețelele de socializare.
Într-un videoclip care circulă pe TikTok, imaginea unui ofițer de poliție rutieră în timpul serviciului a fost asociată cu dialoguri jignitoare, alături de hashtagul „amendă de dragul de a face” pentru a sugera că acest ofițer abuzează de puterea sa în scop personal. Mulți utilizatori, în special tinerii, au crezut cu ușurință acest conținut, deoarece imaginea era atât de realistă, vocea fiind atât de apropiată de forma gurii, încât a devenit extrem de dificil de făcut distincția între real și fals.
Doar pentru că a vrut să-și „etaleze” abilitatea de a aplica tehnologia inteligenței artificiale, un tânăr YouTuber din Dien Bien a trebuit să plătească prețul fiind amendat administrativ și obligat să-și ceară scuze public. În după-amiaza zilei de 24 ianuarie, Poliția Provincială Dien Bien a anunțat că Departamentul de Securitate Cibernetică și Prevenire a Criminalității de Înaltă Tehnologie a emis o decizie de a-l amenda administrativ pe Tong Van T. (născut în 2001, domiciliat în districtul Muong Ang) cu 7,5 milioane VND pentru utilizarea inteligenței artificiale pentru a crea un videoclip fals cu conținut distorsionat și pentru insultarea forțelor de poliție rutieră.
Mai exact, pe 7 ianuarie, T. a încărcat pe contul de YouTube „Tuyền Vlog” un videoclip de peste 3 minute cu titlul șocant: „În timp ce ieșeam cu cineva, am fost urmărit de poliția rutieră”. În videoclip, imaginile și situațiile au fost puse în scenă folosind tehnologia inteligenței artificiale, simulând poliția rutieră urmărind oameni, combinate cu efecte și comentarii jignitoare și defăimătoare la adresa autorităților.
În colaborare cu poliția, T. a recunoscut că întregul conținut al videoclipului era un produs contrafăcut, cu scop de „divertisment” și demonstrarea capacității de a utiliza tehnologia inteligenței artificiale. Pe lângă amendă, autoritățile i-au cerut lui T. să elimine videoclipul fals menționat mai sus și să își ceară public scuze poliției rutiere pe canalul său personal de YouTube.
În era exploziei tehnologiei digitale , în special a dezvoltării rapide a inteligenței artificiale, forțele ostile și reacționare nu au ezitat să profite de acest instrument pentru a crea imagini și povești fabricate, cu scopul de a distorsiona și defăima imaginea Forțelor Publice de Securitate ale Poporului Vietnamez. Fotografia care a circulat recent pe rețelele de socializare, în care o femeie însărcinată în uniformă de poliție este amenințată de doi bărbați cu aspect de „gangster”, este o demonstrație clară a acestui truc.
Fotografia generată de inteligența artificială a devenit virală recent pe rețelele de socializare.
La prima vedere, telespectatorii pot confunda ușor acest lucru cu o scenă reală, însoțită de un titlu senzațional precum: „Săracul băiat salvează o polițistă însărcinată de la bătaia gangsterilor, deschide pe neașteptate un dosar care șochează întreaga țară...”. Cu toate acestea, aceasta este de fapt doar o scenă pusă în scenă, posibil dintr-un film sau produs de divertisment sau, mai rău, o imagine creată de inteligența artificială pentru a păcăli emoțiile cititorilor, determinându-i să simtă milă și să se îndoiască de autenticitatea activităților forțelor de ordine.
Mai îngrijorător este faptul că diseminarea unui astfel de conținut nu numai că dăunează reputației și imaginii Forțelor de Securitate Publică ale Poporului, care protejează securitatea și ordinea în societate zi și noapte, ci reprezintă și o formă sofisticată de război psihologic. Atunci când încrederea oamenilor în autorități este erodată de imagini false, scopul profund al forțelor ostile de a diviza marele bloc al unității naționale se va realiza treptat.
Prin urmare, fiecare cetățean trebuie să își sporească vigilența, să aibă gândire critică și abilități de identificare a informațiilor false și să denunțe și să respingă cu fermitate conținutul fals, contribuind la protejarea fundamentului ideologic și la menținerea stabilității sociale împotriva valului actual de informații toxice din spațiul cibernetic.
În orașul Ho Și Min, un videoclip de aproape un minut a devenit brusc viral pe rețelele de socializare, înregistrând o scenă în care o persoană în uniformă de poliție „extorca mărturisirea” unui contravenient într-un birou. În videoclip, persoana despre care se crede că este ofițer de poliție are o atitudine dură, țipă și ceartă constant, folosind chiar și cuvinte nepoliticoase, provocând indignare în rândul publicului.
Totuși, imediat după ce videoclipul a devenit viral, Poliția din Ho Chi Minh a investigat rapid și a confirmat că era vorba de un produs deepfake sofisticat. Conform concluziilor, fața din videoclip a fost extrasă dintr-o înregistrare a unei conferințe interne a forțelor de poliție, apoi a fost folosită tehnologia inteligenței artificiale de către răufăcători pentru a o pune într-o scenă înscenată, făcându-i pe telespectatori să creadă în mod eronat că a fost o acțiune reală.
În special, înregistrarea audio însoțitoare include o voce amenințătoare și insultătoare, care nu este de fapt cuvintele reale ale vreunui oficial, ci este o voce sintetizată de inteligență artificială, programată și editată pentru a înșela emoțiile spectatorului.
Incidentul este un exemplu tipic de utilizare a tehnologiei deepfake pentru a denatura și defăima Forțele de Securitate Publică ale Poporului, un truc exploatat din ce în ce mai mult de forțele reacționare și antiguvernamentale în spațiul cibernetic. Este demn de remarcat faptul că, dacă nu sunt expuse prompt, astfel de produse false pot duce la consecințe grave: zdruncinarea încrederii oamenilor în forțele de ordine, incitarea la rezistență în comunitate și crearea condițiilor pentru răspândirea argumentelor false. Acesta este un avertisment clar cu privire la urgența îmbunătățirii capacității mass-media de a infirma, detecta și combate știrile false și, în același timp, un apel către fiecare cetățean să fie atent și să nu se grăbească să distribuie sau să comenteze conținut neverificat din surse oficiale.
Într-un alt caz recent, legat de gestionarea încălcărilor la un centru de inspecție auto din Sud, subiecți ostili au răspândit o înregistrare video falsă cu un lider al poliției provinciale vorbind în apărarea ofițerilor care au greșit. Această înregistrare a fost răspândită pe Telegram și pe rețelele de socializare cu titlul „susținut de forțe puternice”, dar, de fapt, era un produs al inteligenței artificiale, neapărând complet în nicio conferință de presă sau document oficial.
O tendință periculoasă se răspândește discret în spațiul cibernetic, și anume aceea că infractorii folosesc tehnologia inteligenței artificiale pentru a crea videoclipuri false în scopul fraudei și șantajului. Recent, multe persoane au devenit victime atunci când imaginile lor, în special cele ale unor persoane prestigioase, precum avocați, medici și oameni de afaceri, sunt editate în videoclipuri publicitare „pentru recuperarea banilor înșelați online”.
În aceste videoclipuri, inteligența artificială este folosită pentru a falsifica vocea și fața avocatului, creând încredere în spectatori, oferind astfel cu ușurință informații personale sau transferând bani escrocului. Mai periculos este faptul că unii subiecți folosesc și tehnologia deepfake pentru a introduce fața victimei în videoclipuri sexuale, apoi le trimit soțiilor, soților sau colegilor lor cu scopul de a-i amenința și a-i forța să transfere bani pentru a „păstra secretul problemei”.
Un incident șocant a avut loc în martie 2025, când o victimă din Hanoi a fost rugată să transfere zeci de milioane de dong după ce a primit un videoclip sexual fals cu propria sa imagine. Între timp, în orașul Ho Chi Minh, o altă persoană a fost șantajată cu până la 2 miliarde de dong dacă nu dorea ca videoclipul sensibil să se răspândească. Ministerul Securității Publice a intervenit, identificând numeroase grupuri criminale transnaționale, în principal din China și Asia de Sud-Est, care se află în spatele acestor replici și folosesc cartele SIM nedorite, portofele electronice și platforme de socializare pentru a-și ascunde identitatea.
Aceasta nu mai este o înșelătorie la scară mică, ci o formă de „război psihologic de înaltă tehnologie”, care exploatează profund frica de onoare și relațiile sociale pentru a pune presiune asupra victimei. Dacă nu vă sporiți vigilența, abilitățile de identificare a informațiilor și a comportamentelor neobișnuite, oricine poate deveni „pradă” în mâinile infractorilor care utilizează tehnologie avansată. În fața acestui val sofisticat de falsificare, fiecare cetățean trebuie să fie atent, să nu împărtășească absolut nicio informație personală fără discriminare și să fie pregătit să ia atitudine pentru a denunța actele ilegale, contribuind la protejarea siguranței sale și a comunității.
Este nevoie de un „scut digital” din partea comunității pentru a combate amenințarea deepfake-urilor.
Conform Departamentului de Radio, Televiziune și Informații Electronice (Ministerul Culturii, Sportului și Turismului), în 2024, platformele digitale din Vietnam au fost nevoite să elimine peste 4.000 de videoclipuri care conțineau informații false și distorsionate, majoritatea fiind produse create din tehnologia inteligenței artificiale, cum ar fi deepfake, clone vocale... Numai TikTok - o platformă populară în rândul tinerilor - a fost solicitată să elimine peste 1.300 de clipuri deepfake, legate în principal de forțele de poliție, guvernul și politica socială.
În era exploziei tehnologice, inteligența artificială deschide un potențial revoluționar, dar implică și pericole fără precedent, în special produse deepfake cu conținut distorsionat, care atacă reputația agențiilor publice. Un sondaj realizat de Institutul de Cercetare Media MICRI arată că: 62% dintre utilizatorii de rețele sociale din Vietnam nu pot distinge între real și fals fără avertismente din partea mass-media sau a autorităților. Aceasta este o „lacuna cognitivă” pe care forțele malefice o exploatează intens pentru a răspândi informații false, provocând perturbări psihologice sociale.
Tong Van T. la secția de poliție.
Potrivit generalului-maior, profesor asociat, dr. Do Canh Thin, expert în criminologie, utilizarea inteligenței artificiale pentru a crea videoclipuri false cu lideri, a edita declarații false sau a distorsiona acțiunile profesionale ale forțelor de poliție este un truc nou, dar deosebit de periculos. „Deepfake nu este pur și simplu un produs de divertisment, ci o formă de război informațional modern, capabilă să distrugă încrederea, să provoace instabilitate socială și este foarte dificil de controlat”, a comentat generalul-maior Do Canh Thin.
De fapt, videoclipurile manipulate de inteligența artificială nu sunt inofensive, dar ating adesea subiecte sensibile, cum ar fi gestionarea încălcărilor, investigarea infracțiunilor, combaterea corupției etc., ceea ce duce la confuzie și suspiciune față de forțele de ordine. Mai îngrijorător este faptul că multe videoclipuri sunt distribuite pe platforme importante precum YouTube și TikTok, având sute de mii de vizualizări înainte de a fi eliminate, creând un efect viral negativ.
Expertul în media digitală Hoang Minh avertizează: „Cu o singură distribuire sau un singur like, fără a fi atent, poți deveni un facilitator de știri false. Fiecare utilizator de internet trebuie să înțeleagă că și comportamentul în spațiul digital are consecințe reale.”
În acest context, ceea ce este necesar mai mult ca niciodată este construirea unui „scut digital” din comunitatea însăși: adică vigilență, imunitate informațională și responsabilitate pentru mediul de rețea. Tehnologia poate fi neutră, dar modul în care oamenii o folosesc va determina dacă IA devine o forță motrice pentru dezvoltare sau o forță care distruge încrederea socială. Menținerea frontului ideologic, protejarea imaginii soldatului Securității Publice a Poporului înseamnă protejarea fundamentului securității naționale, o sarcină nu numai a sectorului funcțional, ci și a fiecărui cetățean în era digitală.
Sursă: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Comentariu (0)