Czas, aby każdy użytkownik stał się „cyfrową tarczą”, zachowując czujność, czujność i biorąc odpowiedzialność za każde kliknięcie i udostępnienie.
Korzyści i cienka granica między sztuczną inteligencją a jej wpływem
Sztuczna inteligencja nigdy nie była tak blisko życia jak dzisiaj. Wystarczy kilka kliknięć, krótka komenda, aby stworzyć głosy, obrazy, a nawet filmy o zdumiewającym realizmie. Sztuczna inteligencja pomaga oszczędzać czas, obniżać koszty produkcji treści i otwierać erę elastycznych mediów cyfrowych.
Jednak umiejętność „realistycznej symulacji” stała się bronią obosieczną. Ostatnio w sieciach społecznościowych regularnie pojawiają się filmy stworzone w technologii deepfake, w których twarze dowódców policji, wizerunki funkcjonariuszy służb specjalnych w newralgicznych sprawach… są wycinane i wklejane, a dubbingowane zniekształconymi głosami, by wywołać nieporozumienia i podzielić ludzi.
Coraz częściej tego typu inscenizowane obrazy pojawiają się w mediach społecznościowych.
W klipie krążącym na TikToku, wizerunek policjanta drogowego na służbie został połączony z obraźliwym dialogiem i hashtagiem „fine for the sake of it”, co miało sugerować, że funkcjonariusz nadużywa swojej władzy dla osobistych korzyści. Wielu użytkowników, zwłaszcza młodych, łatwo uwierzyło w tę treść, ponieważ obraz był tak realistyczny, a głos tak bliski ust, że niezwykle trudno było odróżnić prawdę od fałszu.
Młody YouTuber z Dien Bien musiał zapłacić karę administracyjną za „pochwalenie się” swoimi umiejętnościami w zakresie technologii sztucznej inteligencji (AI), ponieważ chciał „popisać się” swoimi umiejętnościami w zakresie stosowania AI. Został ukarany grzywną administracyjną i zmuszony do publicznych przeprosin. Po południu 24 stycznia policja prowincji Dien Bien ogłosiła, że Departament Cyberbezpieczeństwa i Zapobiegania Przestępczości z Wykorzystaniem Technologii (AI) wydał decyzję o nałożeniu grzywny administracyjnej w wysokości 7,5 miliona VND na Tonga Van T. (ur. 2001, zamieszkałego w dystrykcie Muong Ang) za wykorzystanie AI do stworzenia fałszywego filmu o zniekształconej treści i znieważenie policji drogowej.
Dokładnie 7 stycznia T. opublikował na koncie YouTube „Tuyền Vlog” ponad 3-minutowy film o szokującym tytule: „Kiedy byłem na mieście, ścigała mnie policja drogowa”. W klipie wykorzystano sztuczną inteligencję, aby zaaranżować sceny i sytuacje, symulując pościg policji drogowej, połączone z efektami i komentarzami obraźliwymi i zniesławiającymi władze.
Współpracując z policją, T. przyznał, że cała treść klipu była podróbką, mającą na celu „rozrywkę” i demonstrację umiejętności korzystania z technologii sztucznej inteligencji. Oprócz grzywny, władze zażądały od T. usunięcia powyższego fałszywego filmu i publicznego przeproszenia policji drogowej na jego prywatnym kanale w serwisie YouTube.
W dobie eksplozji technologii cyfrowej , a zwłaszcza szybkiego rozwoju sztucznej inteligencji, wrogie i reakcyjne siły nie wahały się wykorzystać tego narzędzia do tworzenia sfabrykowanych obrazów i historii, mających na celu zniekształcenie i zniesławienie wizerunku Wietnamskich Ludowych Sił Bezpieczeństwa Publicznego. Krążące ostatnio w mediach społecznościowych zdjęcie, na którym ciężarna kobieta w mundurze policyjnym jest zastraszana przez dwóch mężczyzn o „gangsterskich” rysach, jest wyraźnym przykładem tego triku.
Zdjęcie wygenerowane przez sztuczną inteligencję niedawno stało się viralem w mediach społecznościowych.
Na pierwszy rzut oka widzowie mogą łatwo pomylić tę scenę z prawdziwą, opatrzoną sensacyjnym tytułem: „Biedny chłopiec ratuje ciężarną policjantkę przed pobiciem przez gangsterów, niespodziewanie otwierając sprawę, która wstrząsa całym krajem…”. Jednak w rzeczywistości jest to jedynie wyreżyserowana scena, prawdopodobnie z filmu lub produktu rozrywkowego, a co gorsza, obraz stworzony przez sztuczną inteligencję, aby oszukać emocje czytelników, wzbudzając w nich litość i wątpliwości co do autentyczności działań organów ścigania.
Co bardziej niepokojące, rozpowszechnianie takich treści nie tylko szkodzi reputacji i wizerunkowi Ludowych Sił Bezpieczeństwa Publicznego, które dzień i noc chronią bezpieczeństwo i porządek społeczny, ale jest również wyrafinowaną formą wojny psychologicznej. Gdy fałszywe obrazy podważają zaufanie ludzi do władz, głęboki cel wrogich sił, jakim jest podział wielkiego bloku jedności narodowej, zostanie stopniowo zrealizowany.
Dlatego każdy obywatel powinien zwiększyć swoją czujność, wykazać się umiejętnością krytycznego myślenia i umiejętnością identyfikowania fałszywych informacji, a także stanowczo potępiać i dementować fałszywe treści, przyczyniając się w ten sposób do ochrony fundamentów ideologicznych i utrzymania stabilności społecznej w obliczu obecnej fali toksycznych informacji w cyberprzestrzeni.
W Ho Chi Minh City, prawie minutowy klip nagle stał się viralem w mediach społecznościowych. Na nagraniu widać mężczyznę w policyjnym mundurze, który „wymusza zeznania” od sprawcy w biurze. Na nagraniu widać, jak osoba, którą uważa się za policjanta, zachowuje się agresywnie, nieustannie krzyczy i znieważa, a nawet używa wulgarnych słów, co wywołuje oburzenie wśród opinii publicznej.
Jednak natychmiast po tym, jak nagranie stało się viralem, policja w Ho Chi Minh City szybko przeprowadziła dochodzenie i potwierdziła, że jest to wyrafinowany produkt deepfake. Zgodnie z wynikami, twarz na nagraniu została wyodrębniona z nagrania wewnętrznej konferencji policji, a następnie wykorzystana przez złoczyńców do umieszczenia jej w zainscenizowanej scenie, błędnie sugerując widzom, że to prawdziwa akcja.
W szczególności w towarzyszącym materiałowi dźwiękowym słychać groźny, obraźliwy głos, który tak naprawdę nie jest prawdziwym głosem żadnego urzędnika, lecz zsyntetyzowanym głosem sztucznej inteligencji, zaprogramowanym i edytowanym w celu oszukania emocji widza.
Incydent ten jest typowym przykładem wykorzystania technologii deepfake do zniekształcania i zniesławiania Ludowych Sił Bezpieczeństwa Publicznego (LSPS), chwytu coraz częściej wykorzystywanego przez siły reakcyjne i antyrządowe w cyberprzestrzeni. Warto zauważyć, że jeśli takie fałszywe materiały nie zostaną szybko ujawnione, mogą prowadzić do poważnych konsekwencji: podważenia zaufania do organów ścigania, wzniecenia oporu w społeczeństwie i stworzenia warunków do rozpowszechniania fałszywych argumentów. Jest to wyraźne ostrzeżenie o pilnej potrzebie poprawy zdolności mediów do dementowania, wykrywania i zwalczania fake newsów, a jednocześnie apel do każdego obywatela o czujność i niespieszne udostępnianie lub komentowanie niezweryfikowanych treści pochodzących z oficjalnych źródeł.
W innym niedawnym przypadku, związanym z postępowaniem w sprawie wykroczeń w punkcie kontroli pojazdów na południu kraju, wrogie osoby rozpowszechniły fałszywe nagranie wideo przedstawiające szefa policji prowincji broniącego funkcjonariuszy, którzy popełnili błąd. Nagranie to zostało rozpowszechnione na Telegramie i w mediach społecznościowych pod tytułem „wspierane przez potężne siły”, ale w rzeczywistości było wytworem sztucznej inteligencji i nie pojawiło się na żadnej konferencji prasowej ani w oficjalnym dokumencie.
W cyberprzestrzeni po cichu rozprzestrzenia się niebezpieczny trend, polegający na tym, że cyberprzestępcy wykorzystują technologię sztucznej inteligencji do tworzenia fałszywych klipów w celu oszustwa i szantażu. Ostatnio wiele osób padło ofiarą, gdy ich wizerunki, zwłaszcza wizerunki prestiżowych osób, takich jak prawnicy, lekarze i biznesmeni, zostały wmontowane w filmy reklamowe „odzyskiwania pieniędzy wyłudzonych online”.
W tych klipach sztuczna inteligencja podrabia głos i twarz prawnika, budując zaufanie widzów i umożliwiając im łatwe udostępnianie danych osobowych lub przekazywanie pieniędzy oszustowi. Co gorsza, niektórzy wykorzystują technologię deepfake, aby umieszczać twarz ofiary w filmach erotycznych, a następnie wysyłać je do żon, mężów lub współpracowników w celu zastraszenia i zmuszenia ich do przelania pieniędzy, aby „zachować sprawę w tajemnicy”.
Wstrząsający incydent miał miejsce w marcu 2025 roku, kiedy ofiara w Hanoi została poproszona o przelanie dziesiątek milionów dongów po otrzymaniu fałszywego klipu erotycznego ze swoim własnym wizerunkiem. Tymczasem w Ho Chi Minh City inna osoba została szantażowana kwotą do 2 miliardów dongów, jeśli nie chciała, aby wrażliwe nagranie zostało rozpowszechnione. Ministerstwo Bezpieczeństwa Publicznego podjęło działania, identyfikując wiele transnarodowych grup przestępczych, głównie z Chin i Azji Południowo-Wschodniej, działających za tymi liniami i wykorzystujących do ukrywania swojej tożsamości niepotrzebne karty SIM, portfele elektroniczne i platformy społecznościowe.
To już nie jest drobne oszustwo, lecz forma „zaawansowanej technologicznie wojny psychologicznej”, głęboko wykorzystującej lęk przed honorem i relacjami społecznymi, aby wywrzeć presję na ofiarę. Jeśli nie zachowasz czujności, umiejętności identyfikowania informacji i nietypowych zachowań, każdy może stać się „ofiarą” w rękach przestępców wykorzystujących zaawansowaną technologię. W obliczu tej wyrafinowanej fali fałszerstw, każdy obywatel musi zachować czujność, bezwzględnie nie udostępniać bezkrytycznie danych osobowych i być gotowym do zabrania głosu, aby potępić nielegalne działania, przyczyniając się do ochrony bezpieczeństwa własnego i społeczności.
Aby walczyć z zagrożeniem deepfake, potrzebna jest „cyfrowa tarcza” ze strony społeczności.
Według Departamentu Radia, Telewizji i Informacji Elektronicznej (Ministerstwo Kultury, Sportu i Turystyki) w 2024 r. platformy cyfrowe w Wietnamie musiały usunąć ponad 4000 filmów zawierających fałszywe i zniekształcone informacje, z których większość stanowiły produkty stworzone przy użyciu technologii sztucznej inteligencji, takie jak deepfake, klonowanie głosu... Sam TikTok — platforma popularna wśród młodych ludzi — został poproszony o usunięcie ponad 1300 klipów deepfake, związanych głównie z policją, rządem i polityką społeczną.
W dobie eksplozji technologicznej sztuczna inteligencja otwiera przełomowy potencjał, ale niesie ze sobą również bezprecedensowe zagrożenia, zwłaszcza w postaci produktów deepfake o zniekształconej treści, które podważają reputację instytucji publicznych. Badanie przeprowadzone przez Instytut Badań Mediów MICRI pokazuje, że 62% użytkowników mediów społecznościowych w Wietnamie nie potrafi odróżnić prawdy od fałszu bez ostrzeżeń ze strony mediów głównego nurtu lub władz. To „luka poznawcza”, którą złe siły wykorzystują do rozpowszechniania fałszywych informacji, wywołując zaburzenia społeczno-psychologiczne.
Tong Van T. na komisariacie policji.
Według generała dywizji, profesora nadzwyczajnego dr. Do Canh Thina, eksperta w dziedzinie kryminologii, wykorzystywanie sztucznej inteligencji do tworzenia fałszywych filmów z udziałem przywódców, edytowania fałszywych oświadczeń lub zniekształcania profesjonalnych działań policji to nowy, ale szczególnie niebezpieczny trik. „Deepfake to nie tylko produkt rozrywkowy, ale forma współczesnej wojny informacyjnej, która może zniszczyć zaufanie, wywołać niestabilność społeczną i jest bardzo trudna do kontrolowania” – skomentował generał dywizji Do Canh Thin.
W rzeczywistości klipy zmanipulowane przez sztuczną inteligencję nie są nieszkodliwe, ale często poruszają drażliwe tematy, takie jak postępowanie w przypadku naruszeń, ściganie przestępstw, walka z korupcją itp., co powoduje dezorientację i podejrzliwość wobec organów ścigania. Co bardziej niepokojące, wiele filmów jest udostępnianych na popularnych platformach, takich jak YouTube i TikTok, osiągając setki tysięcy wyświetleń, zanim zostaną usunięte, co wywołuje negatywny efekt wirusowy.
Ekspert ds. mediów cyfrowych Hoang Minh ostrzega: „Jedno udostępnienie lub polubienie bez zachowania ostrożności może stać się narzędziem rozpowszechniania fake newsów. Każdy użytkownik internetu musi zrozumieć, że zachowania w przestrzeni cyfrowej mają również realne konsekwencje”.
W tym kontekście bardziej niż kiedykolwiek potrzebne jest zbudowanie „cyfrowej tarczy” przed samą społecznością: czyli czujności, odporności informacyjnej i odpowiedzialności za środowisko sieciowe. Technologia może być neutralna, ale to, jak ludzie z niej korzystają, zadecyduje, czy sztuczna inteligencja stanie się siłą napędową rozwoju, czy siłą niszczącą zaufanie społeczne. Utrzymywanie frontu ideologicznego, ochrona wizerunku żołnierza Bezpieczeństwa Publicznego Ludu to ochrona fundamentów bezpieczeństwa narodowego, zadanie nie tylko sektora funkcjonalnego, ale także każdego obywatela w erze cyfrowej.
Źródło: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Komentarz (0)