Het is tijd dat elke gebruiker een 'digitaal schild' wordt en alert, waakzaam en verantwoordelijk is voor elke klik en elke gedeelde actie.
Voordelen en de dunne lijn van AI
Kunstmatige intelligentie (AI) is nog nooit zo dicht bij het leven geweest als nu. Met slechts een paar klikken en een korte opdracht kunnen stemmen, afbeeldingen en zelfs video's worden gecreëerd met verbluffend realisme. AI helpt tijd te besparen, de kosten voor contentproductie te verlagen en opent het tijdperk van flexibele digitale media.
Het vermogen om "realistisch te simuleren" is echter een tweesnijdend zwaard geworden. De laatste tijd verschijnen er voortdurend video's op sociale netwerken die zijn gemaakt met deepfake-technologie, waarin gezichten van politieleiders, afbeeldingen van agenten in gevoelige zaken... worden geknipt en geplakt, en nagesynchroniseerd met vervormde stemmen om misverstanden te zaaien en mensen te verdelen.
Dergelijke geënsceneerde beelden verschijnen steeds vaker op sociale netwerken.
In een clip die op TikTok circuleerde, werd de afbeelding van een dienstdoende verkeersagent gecombineerd met een aanstootgevende dialoog, samen met de hashtag "fine for the sake of it", om te impliceren dat deze agent zijn macht misbruikte voor persoonlijk gewin. Veel gebruikers, vooral jongeren, geloofden deze content al snel omdat de afbeelding zo realistisch was en de stem zo dicht bij de mond leek dat het extreem moeilijk werd om echt van nep te onderscheiden.
Omdat hij zijn vaardigheden in het toepassen van AI-technologie wilde "pronken", moest een jonge YouTuber in Dien Bien de prijs betalen: een administratieve boete en gedwongen zich publiekelijk te verontschuldigen. Op 24 januari maakte de provinciale politie van Dien Bien bekend dat de afdeling Cybersecurity en Hightechcriminaliteitsbestrijding Tong Van T. (geboren in 2001, woonachtig in het district Muong Ang) een administratieve boete van VND 7,5 miljoen had opgelegd voor het gebruik van AI om een nepvideo met vervormde content te maken en de verkeerspolitie te beledigen.
Concreet uploadde T. op 7 januari een video van meer dan 3 minuten naar het YouTube-account "Tuyền Vlog" met de schokkende titel: "Tijdens het rondhangen werd ik achtervolgd door de verkeerspolitie". In de clip werden beelden en situaties geënsceneerd met behulp van AI-technologie, waarbij verkeerspolitie mensen achtervolgde, gecombineerd met effecten en opmerkingen die beledigend en lasterlijk waren voor de autoriteiten.
In samenwerking met de politie gaf T. toe dat de volledige inhoud van de clip een nepproduct was met als doel "entertainment" en het demonstreren van de mogelijkheid om AI-technologie te gebruiken. Naast de boete vroegen de autoriteiten T. om de bovenstaande nepvideo te verwijderen en publiekelijk zijn excuses aan te bieden aan de verkeerspolitie via zijn persoonlijke YouTube-kanaal.
In het tijdperk van de explosieve groei van digitale technologie , met name de snelle ontwikkeling van kunstmatige intelligentie, hebben vijandige en reactionaire krachten niet geaarzeld om dit instrument te gebruiken om gefabriceerde beelden en verhalen te creëren met als doel het imago van de Vietnamese Volksveiligheidsdienst te verdraaien en te belasteren. De foto die onlangs op sociale media circuleerde, waarop een zwangere vrouw in politie-uniform wordt bedreigd door twee mannen met een gangsteruiterlijk, is een duidelijk voorbeeld van deze truc.
De door AI gegenereerde foto ging onlangs viraal op sociale media.
Op het eerste gezicht kan de kijker dit gemakkelijk verwarren met een echte scène, met een sensationele kop als: "Arme jongen redt zwangere politieagente van mishandeling door gangsters, opent onverwacht een zaak die het hele land shockeert...". Dit is echter in feite slechts een geënsceneerde scène, mogelijk uit een film of entertainmentproduct, of erger nog, een door AI gecreëerd beeld om de emoties van lezers te misleiden, waardoor ze medelijden krijgen en twijfelen aan de authenticiteit van de wetshandhaving.
Nog zorgwekkender is dat de verspreiding van dergelijke content niet alleen de reputatie en het imago van de Volksveiligheidsdiensten schaadt, die dag en nacht de veiligheid en orde in de samenleving bewaken, maar ook een geraffineerde vorm van psychologische oorlogsvoering is. Wanneer het vertrouwen van de bevolking in de autoriteiten wordt ondermijnd door valse beelden, zal het diepe doel van vijandige krachten om het grote nationale eenheidsblok te verdelen geleidelijk worden gerealiseerd.
Daarom is het van belang dat iedere burger waakzaam is, kritisch nadenkt en de vaardigheden heeft om valse informatie te herkennen, en valse inhoud resoluut veroordeelt en weerlegt. Zo draagt hij bij aan het beschermen van de ideologische basis en het handhaven van de maatschappelijke stabiliteit tegen de huidige golf van giftige informatie op internet.
In Ho Chi Minhstad ging een filmpje van bijna een minuut plotseling viraal op sociale media. Het filmpje toonde een scène waarin een man in politie-uniform een overtreder op kantoor "een bekentenis afdwingt". In de video is de vermoedelijk politieagent te zien met een harde houding, constant schreeuwend en scheldend, en zelfs met grove taalgebruik, wat tot verontwaardiging leidde bij het publiek.
Direct nadat de clip viraal ging, onderzocht de politie van Ho Chi Minhstad echter snel en bevestigde dat het om een geavanceerd deepfakeproduct ging. Volgens de conclusie was het gezicht in de video afkomstig van een opname van een intern politieoverleg en vervolgens door schurken met behulp van AI-technologie in een geënsceneerde scène geplaatst, waardoor kijkers ten onrechte dachten dat het om een echte actie ging.
Vooral in de begeleidende audio is een dreigende, beledigende stem te horen. Dit zijn niet de echte woorden van een functionaris, maar een kunstmatige AI-stem die is geprogrammeerd en bewerkt om de emoties van de kijker te misleiden.
Het incident is een typisch voorbeeld van het gebruik van deepfake-technologie om de People's Public Security Forces te verdraaien en te belasteren, een truc die steeds vaker wordt uitgebuit door reactionaire en anti-overheidstroepen in cyberspace. Het is belangrijk om op te merken dat dergelijke nepproducten, indien niet snel ontmaskerd, ernstige gevolgen kunnen hebben: het vertrouwen van mensen in de wetshandhaving schenden, weerstand in de gemeenschap aanwakkeren en omstandigheden creëren waarin valse argumenten zich kunnen verspreiden. Dit is een duidelijke waarschuwing over de urgentie van het verbeteren van de mediacapaciteit om nepnieuws te weerleggen, op te sporen en te bestrijden, en roept tegelijkertijd elke burger op alert te zijn en niet te snel ongeverifieerde content van officiële bronnen te delen of erop te reageren.
In een andere recente zaak, gerelateerd aan de afhandeling van overtredingen bij een voertuiginspectie in het zuiden, verspreidden vijandige personen een nepvideo van een provinciale politiechef die zich uitsprak ter verdediging van dwalende agenten. Deze clip werd verspreid op Telegram en sociale media onder de titel "gesteund door machtige krachten", maar in feite was het een product van AI en verscheen het helemaal niet in een persconferentie of officieel document.
Een gevaarlijke trend verspreidt zich sluipenderwijs op cyberspace: criminelen gebruiken AI-technologie om nepclips te maken met als doel fraude en chantage. De laatste tijd zijn veel mensen slachtoffer geworden van het feit dat hun foto's, met name die van prestigieuze personen zoals advocaten, artsen en zakenlieden, worden bewerkt tot reclamevideo's waarin "online opgelicht geld wordt teruggevorderd".
In deze clips wordt AI gebruikt om de stem en het gezicht van de advocaat te vervalsen, waardoor kijkers vertrouwen krijgen en zo gemakkelijk persoonlijke informatie kunnen verstrekken of geld kunnen overmaken aan de oplichter. Nog gevaarlijker is dat sommige personen deepfake-technologie gebruiken om het gezicht van het slachtoffer in seksvideo's te plaatsen en deze vervolgens naar hun vrouw, echtgenoot of collega's te sturen met als doel hen te bedreigen en te dwingen geld over te maken om "de zaak geheim te houden".
Een schokkend incident vond plaats in maart 2025, toen een slachtoffer in Hanoi werd gevraagd tientallen miljoenen dong over te maken nadat hij een nep-seksclip met zijn eigen afbeelding had ontvangen. Ondertussen werd in Ho Chi Minhstad een ander persoon tot 2 miljard dong gechanteerd als hij niet wilde dat de gevoelige video verspreid zou worden. Het Ministerie van Openbare Veiligheid greep in en identificeerde vele transnationale criminele groepen, voornamelijk uit China en Zuidoost-Azië, die achter deze linies zaten en ongewenste simkaarten, e-wallets en sociale media gebruikten om hun identiteit te verbergen.
Dit is niet langer een kleinschalige oplichting, maar een vorm van "hightech psychologische oorlogsvoering", waarbij de angst voor eer en sociale relaties op grote schaal wordt uitgebuit om druk uit te oefenen op het slachtoffer. Als je je waakzaamheid, je vaardigheden in het identificeren van informatie en je ongewone gedrag niet vergroot, kan iedereen een "prooi" worden in de handen van criminelen die geavanceerde technologie gebruiken. Geconfronteerd met deze geavanceerde golf van vervalsing moet elke burger alert zijn, absoluut geen persoonlijke informatie lukraak delen en bereid zijn om zich uit te spreken en illegale handelingen aan te klagen, en zo bij te dragen aan de bescherming van zichzelf en de gemeenschap.
Er is een ‘digitaal schild’ van de community nodig om de dreiging van deepfake te bestrijden.
Volgens het Departement van Radio, Televisie en Elektronische Informatie (Ministerie van Cultuur, Sport en Toerisme) moesten digitale platforms in Vietnam in 2024 meer dan 4.000 video's verwijderen die valse en verdraaide informatie bevatten. Het merendeel hiervan was gemaakt met behulp van AI-technologie, zoals deepfake, voice clone... Alleen al TikTok, een platform dat populair is bij jongeren, werd gevraagd om meer dan 1.300 deepfake-clips te verwijderen, voornamelijk met betrekking tot de politie, de overheid en het sociale beleid.
In het tijdperk van technologische explosie biedt kunstmatige intelligentie baanbrekende mogelijkheden, maar brengt ook ongekende gevaren met zich mee, met name deepfake-producten met vervormde content die de reputatie van overheidsinstanties aantasten. Uit een onderzoek van het MICRI Media Research Institute blijkt dat: 62% van de socialemediagebruikers in Vietnam geen onderscheid kan maken tussen echt en nep zonder waarschuwingen van de reguliere media of autoriteiten. Dit is een "cognitieve kloof" die door kwade krachten grondig wordt uitgebuit om valse informatie te verspreiden, wat sociaal-psychologische verstoringen veroorzaakt.
Tong Van T. op het politiebureau.
Volgens generaal-majoor en universitair hoofddocent dr. Do Canh Thin, criminoloog, is het gebruik van AI om nepvideo's van leiders te maken, valse verklaringen te bewerken of de professionele acties van de politie te verdraaien een nieuwe maar bijzonder gevaarlijke truc. "Deepfake is niet zomaar een entertainmentproduct, maar een vorm van moderne informatieoorlogvoering die vertrouwen kan schaden, sociale instabiliteit kan veroorzaken en zeer moeilijk te beheersen is", aldus generaal-majoor Do Canh Thin.
Sterker nog, door AI gemanipuleerde clips zijn niet ongevaarlijk, maar raken vaak gevoelige onderwerpen aan, zoals het afhandelen van overtredingen, het onderzoeken van misdrijven, het bestrijden van corruptie, enz., waardoor mensen in de war raken en wantrouwend staan tegenover de wetshandhaving. Nog zorgwekkender is dat veel video's op grote platforms zoals YouTube en TikTok honderdduizenden keren bekeken worden voordat ze worden verwijderd, wat een negatief viraal effect heeft.
Digitale media-expert Hoang Minh waarschuwt: "Met slechts één share of één like kun je, zonder op te passen, een facilitator van nepnieuws worden. Elke internetgebruiker moet begrijpen dat gedrag in de digitale ruimte ook reële gevolgen heeft."
In deze context is het meer dan ooit nodig om een "digitaal schild" te bouwen tegen de gemeenschap zelf: waakzaamheid, informatie-immuniteit en verantwoordelijkheid voor de netwerkomgeving. Technologie mag dan neutraal zijn, maar hoe mensen het gebruiken, zal bepalen of AI een drijvende kracht achter ontwikkeling wordt of een kracht die het maatschappelijk vertrouwen vernietigt. Het ideologische front in stand houden en het imago van de People's Public Security-soldaat beschermen, is het beschermen van de basis van de nationale veiligheid. Dit is niet alleen een taak van de functionele sector, maar ook van elke burger in het digitale tijdperk.
Bron: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Reactie (0)