Det er på tide at hver bruker blir et «digitalt skjold», er årvåken, årvåken og ansvarlig for hvert klikk og hver deling.
Fordeler og den fine grensen fra AI
Kunstig intelligens har aldri vært nærmere virkeligheten enn den er i dag. Med bare noen få klikk kan en kort kommando lage stemmer, bilder og til og med videoer med forbløffende realisme. KI bidrar til å spare tid, redusere innholdsproduksjonskostnader og åpner for en æra med fleksible digitale medier.
Muligheten til å «simulere realistisk» har imidlertid blitt et tveegget sverd. I det siste har sosiale nettverk kontinuerlig dukket opp videoer laget med deepfake-teknologi, der ansiktene til politiledere, bilder av funksjonelle styrker i sensitive saker ... er klippet og limt, dubbet med forvrengte stemmer for å forårsake misforståelser og splitte folk.
Iscenesatte bilder som dette dukker stadig oftere opp på sosiale nettverk.
I et klipp som sirkulerte på TikTok ble bildet av en trafikkbetjent på vakt paret med støtende dialog, sammen med emneknaggen «bot for sakens skyld» for å antyde at denne betjenten misbrukte makten sin for personlig vinning. Mange brukere, spesielt unge mennesker, trodde lett på dette innholdet fordi bildet var så realistisk, stemmen var så nær munnformen at det ble ekstremt vanskelig å skille mellom ekte og falskt.
Bare fordi han ville «vise frem» sin evne til å bruke AI-teknologi, måtte en ung YouTuber i Dien Bien betale prisen ved å bli ilagt en administrativ bot og tvunget til å be om unnskyldning offentlig. På ettermiddagen 24. januar kunngjorde Dien Bien provinsielle politi at avdelingen for cybersikkerhet og høyteknologisk kriminalitetsforebygging hadde truffet en beslutning om å ilegge Tong Van T. (født i 2001, bosatt i Muong Ang-distriktet) en administrativ bot på 7,5 millioner dong for å ha brukt AI til å lage en falsk video med forvrengt innhold og fornærmet trafikkpolitiet.
Mer spesifikt lastet T. opp en video på over 3 minutter med den sjokkerende tittelen: «Mens jeg hang der, ble jeg jaget av trafikkpolitiet», den 7. januar. I klippet ble bilder og situasjoner iscenesatt ved hjelp av AI-teknologi, som simulerte trafikkpoliti som jaget folk, kombinert med effekter og kommentarer som var støtende og ærekrenkende overfor myndighetene.
I samarbeid med politiet innrømmet T. at hele innholdet i klippet var et falskt produkt med formål å være «underholdning» og demonstrere evnen til å bruke AI-teknologi. I tillegg til boten ba myndighetene T. om å fjerne den falske videoen ovenfor og offentlig beklage til trafikkpolitiet på sin personlige YouTube-kanal.
I en tid med eksplosjon av digital teknologi , spesielt den raske utviklingen av kunstig intelligens, har ikke fiendtlige og reaksjonære krefter nølt med å benytte seg av dette verktøyet til å lage fabrikerte bilder og historier med sikte på å forvrenge og ærekrenke bildet av de vietnamesiske folkesikkerhetsstyrkene. Bildet som nylig har sirkulert på sosiale nettverk, der en gravid kvinne i politiuniform blir truet av to menn med «gangster»-utseende, er en tydelig demonstrasjon av dette trikset.
Det AI-genererte bildet gikk viralt på sosiale medier nylig.
Ved første øyekast kan seerne lett forveksle dette med en ekte scene, akkompagnert av en sensasjonell overskrift som: «Stakkars gutt redder gravid politikvinne fra å bli banket opp av gangstere, åpner uventet en sak som sjokkerer hele landet...». Men dette er faktisk bare en iscenesatt scene, muligens fra en film eller et underholdningsprodukt, eller enda verre, et bilde laget av AI for å lure lesernes følelser, noe som får dem til å synes synd på og tvile på autentisiteten til politiets aktiviteter.
Enda mer bekymringsfullt er det at spredningen av slikt innhold ikke bare skader omdømmet og imaget til Folkets offentlige sikkerhetsstyrker, som beskytter sikkerhet og orden i samfunnet dag og natt, men også er en sofistikert form for psykologisk krigføring. Når folks tillit til myndighetene eroderes av falske bilder, vil det dype målet til fiendtlige krefter om å splitte den store nasjonale enhetsblokken gradvis bli realisert.
Derfor må alle borgere øke sin årvåkenhet, ha kritisk tenkning og ferdigheter til å identifisere falsk informasjon, og resolutt fordømme og tilbakevise falskt innhold, noe som bidrar til å beskytte det ideologiske grunnlaget og opprettholde sosial stabilitet mot den nåværende bølgen av giftig informasjon i cyberspace.
I Ho Chi Minh-byen gikk et nesten ett minutt langt klipp plutselig viralt på sosiale medier, der det fant ut en scene der en person i politiuniform «presser tilståelse» fra en overtreder på et kontor. I videoen har personen som antas å være en politibetjent en hard holdning, og roper og skjeller stadig ut, til og med bruker grove ord, noe som forårsaker forargelse blant publikum.
Umiddelbart etter at klippet gikk viralt, undersøkte imidlertid politiet i Ho Chi Minh-byen raskt og bekreftet at dette var et sofistikert deepfake-produkt. I følge konklusjonen ble ansiktet i videoen hentet fra et opptak av en intern konferanse i politistyrken, og deretter brukt AI-teknologi av kriminelle for å sette det inn i en iscenesatt scene, noe som fikk seerne feilaktig til å tro at det var en ekte handling.
Spesielt inkluderer den medfølgende lyden en truende, fornærmende stemme som faktisk ikke er de virkelige ordene til noen tjenestemann, men er en syntetisert AI-stemme, programmert og redigert for å lure seerens følelser.
Hendelsen er et typisk eksempel på bruken av deepfake-teknologi for å forvrenge og ærekrenke Folkets offentlige sikkerhetsstyrker, et triks som i økende grad utnyttes av reaksjonære og anti-regjeringsstyrker i cyberspace. Det er verdt å merke seg at hvis slike falske produkter ikke avsløres raskt, kan de føre til alvorlige konsekvenser: å svekke folks tillit til politiet, oppildne til motstand i samfunnet og skape forutsetninger for spredning av falske argumenter. Dette er en klar advarsel om hvor viktig det er å forbedre medienes kapasitet til å tilbakevise, oppdage og bekjempe falske nyheter, og samtidig oppfordre hver enkelt borger til å være årvåken og ikke forhaste seg med å dele eller kommentere ubekreftet innhold fra offisielle kilder.
I en annen nylig sak, relatert til håndtering av overtredelser ved et kjøretøyinspeksjonssenter i sør, spredte fiendtlige personer en falsk video av en provinsiell politileder som talte til forsvar for feilende betjenter. Dette klippet ble spredt på Telegram og sosiale nettverk med tittelen «støttet av mektige krefter», men i virkeligheten var det et produkt av AI, og dukket ikke opp i noen pressekonferanse eller offisielt dokument.
En farlig trend sprer seg stille i cyberspace, nemlig at skurker bruker AI-teknologi til å lage falske klipp med det formål å svindle og utpresse. I det siste har mange blitt ofre når bildene deres, spesielt bildene av prestisjefylte personer som advokater, leger og forretningsmenn, blir redigert til reklamevideoer som «inndriver penger svindlet på nettet».
I disse klippene brukes AI til å forfalske advokatens stemme og ansikt, noe som gir seerne tillit, og dermed enkelt kan gi personlig informasjon eller overføre penger til svindleren. Enda farligere er det at noen personer også bruker deepfake-teknologi til å sette offerets ansikt inn i sexvideoer, og deretter sende dem til konene, ektemennene eller kollegene sine med det formål å true dem og tvinge dem til å overføre penger for å «holde saken hemmelig».
En sjokkerende hendelse inntraff i mars 2025, da et offer i Hanoi ble bedt om å overføre titalls millioner dong etter å ha mottatt et falskt sexklipp med sitt eget bilde. I mellomtiden, i Ho Chi Minh-byen, ble en annen person utpresset for opptil 2 milliarder dong hvis han ikke ønsket at den sensitive videoen skulle spres. Departementet for offentlig sikkerhet har grepet inn og identifisert mange transnasjonale kriminelle grupper, hovedsakelig fra Kina og Sørøst-Asia, bak disse linjene og bruker søppel-SIM-kort, e-lommebøker og sosiale nettverksplattformer for å skjule identiteten sin.
Dette er ikke lenger en liten svindel, men en form for «høyteknologisk psykologisk krigføring», som utnytter frykten for ære og sosiale relasjoner i stor grad for å legge press på offeret. Hvis du ikke øker årvåkenheten, ferdighetene dine i å identifisere informasjon og uvanlig oppførsel, kan hvem som helst bli «bytte» i hendene på kriminelle som bruker høyteknologi. I møte med denne sofistikerte bølgen av forfalskning må enhver borger være årvåken, absolutt ikke dele personlig informasjon vilkårlig og være klar til å si ifra for å fordømme ulovlige handlinger, og dermed bidra til å beskytte sin egen og samfunnets sikkerhet.
Et «digitalt skjold» fra samfunnet er nødvendig for å bekjempe trusselen fra deepfake.
Ifølge departementet for radio, fjernsyn og elektronisk informasjon (departementet for kultur, sport og turisme) måtte digitale plattformer i Vietnam i 2024 fjerne mer enn 4000 videoer som inneholdt falsk og forvrengt informasjon. De fleste av disse var produkter laget av AI-teknologi som deepfake, stemmekloning... Bare TikTok – en plattform populær blant unge – ble bedt om å fjerne mer enn 1300 deepfake-klipp, hovedsakelig relatert til politiet, myndighetene og sosialpolitikken.
I en tid med teknologieksplosjon åpner kunstig intelligens opp for et gjennombruddspotensial, men det medfører også enestående farer, spesielt deepfake-produkter med forvrengt innhold, som angriper offentlige etaters omdømme. En undersøkelse fra MICRI Media Research Institute viser at: 62 % av brukerne av sosiale medier i Vietnam kan ikke skille mellom ekte og falskt uten advarsler fra vanlige medier eller myndigheter. Dette er et «kognitivt gap» som onde krefter utnytter grundig for å spre falsk informasjon, noe som forårsaker sosialpsykologisk forstyrrelse.
Tong Van T. på politistasjonen.
Ifølge generalmajor, førsteamanuensis dr. Do Canh Thin, en kriminologiekspert, er det et nytt, men spesielt farlig triks å bruke kunstig intelligens til å lage falske videoer av ledere, redigere falske uttalelser eller forvrenge politiets profesjonelle handlinger. «Deepfake er ikke bare et underholdningsprodukt, men en form for moderne informasjonskrigføring, som er i stand til å ødelegge tillit, forårsake sosial ustabilitet og er svært vanskelig å kontrollere», kommenterte generalmajor Do Canh Thin.
Faktisk er ikke KI-manipulerte klipp ufarlige, men berører ofte sensitive temaer som håndtering av lovbrudd, etterforskning av kriminalitet, bekjempelse av korrupsjon osv., noe som fører til forvirring og mistenksomhet hos folk overfor politiet. Enda bekymringsfullt er det at mange videoer deles på store plattformer som YouTube og TikTok med hundretusenvis av visninger før de fjernes, noe som skaper en negativ viral effekt.
Digital medieekspert Hoang Minh advarer: «Med bare én deling eller én likerklikk uten å være forsiktig, kan du bli en tilrettelegger for falske nyheter. Enhver internettbruker må forstå at atferd i det digitale rommet også har reelle konsekvenser.»
I denne sammenhengen er det mer enn noen gang behov for å bygge et «digitalt skjold» mot selve samfunnet: det vil si årvåkenhet, informasjonsimmunitet og ansvar for nettverksmiljøet. Teknologi kan være nøytral, men hvordan folk bruker den vil avgjøre om AI blir en drivkraft for utvikling eller en kraft som ødelegger sosial tillit. Å opprettholde den ideologiske fronten og beskytte bildet av en soldat i Folkets offentlige sikkerhet er å beskytte grunnlaget for nasjonal sikkerhet, en oppgave ikke bare for den funksjonelle sektoren, men også for alle borgere i den digitale tidsalderen.
Kilde: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Kommentar (0)