Vietnam.vn - Nền tảng quảng bá Việt Nam

Подвійність штучного інтелекту

Штучний інтелект (ШІ) відкриває багато можливостей, але він також стає небезпечним інструментом, коли його використовують для створення фейкових діпфейкових відео, що спотворюють образ поліції, уряду та підбурюють громадську думку. Ці ретельно відредаговані відео не лише підривають довіру до влади, але й є складною формою психологічної війни в кіберпросторі.

Báo Lạng SơnBáo Lạng Sơn18/06/2025



Настав час кожному користувачеві стати «цифровим щитом», бути пильним, уважним та відповідальним за кожен клік та поширення.

Переваги та тонка грань від штучного інтелекту

Штучний інтелект ще ніколи не був так близький до життя, як сьогодні. Всього кілька кліків, коротка команда можуть створювати голоси, зображення та навіть відео з вражаючою реалістичністю. Штучний інтелект допомагає заощаджувати час, зменшувати витрати на виробництво контенту та відкривати еру гнучких цифрових медіа.

Однак здатність «реалістично симулювати» стала палицею з двома кінцями. Останнім часом у соціальних мережах безперервно з’являються відео, створені за допомогою технології діпфейків, на яких обличчя поліцейських керівників, зображення функціональних сил у делікатних справах... вирізані та вставлені, озвучені спотвореними голосами, щоб викликати непорозуміння та розділити людей.

Подібні постановочні зображення все частіше з'являються в соціальних мережах.

Подібні постановочні зображення все частіше з'являються в соціальних мережах.

У відео, що поширюється в TikTok, зображення співробітника ДАІ на службі поєднувалося з образливими діалогами та хештегом «штраф заради справи», щоб натякнути на те, що цей офіцер зловживає своєю владою заради особистої вигоди. Багато користувачів, особливо молодь, легко повірили цьому контенту, оскільки зображення було настільки реалістичним, а голос був настільки схожий на форму рота, що стало надзвичайно важко відрізнити справжнє від фальшивого.

Молодий ютубер з Дьєнб'єна, хотівши «продемонструвати» свою здатність застосовувати технології штучного інтелекту, був змушений заплатити за це адміністративним штрафом та публічно вибачитися. Вдень 24 січня поліція провінції Дьєнб'єн оголосила, що Департамент кібербезпеки та запобігання високотехнологічним злочинам виніс рішення про адміністративний штраф Тонг Ван Т. (2001 року народження, проживає в районі Муонг Анг) у розмірі 7,5 мільйонів донгівських доларів за використання штучного інтелекту для створення фальшивого відео зі спотвореним змістом та образою дорожньої поліції.

Зокрема, 7 січня Т. завантажив на свій обліковий запис YouTube «Tuyền Vlog» відео тривалістю понад 3 хвилини з шокуючою назвою: «Під час гуляння мене переслідувала дорожня поліція». У відео зображення та ситуації були інсценовані за допомогою технології штучного інтелекту, що імітує переслідування людей дорожньою поліцією, поєднані з ефектами та коментарями, що були образливими та ганьбили владу.

Співпрацюючи з поліцією, Т. визнав, що весь вміст кліпу був підробленим продуктом з метою «розваги» та демонстрації можливості використання технології штучного інтелекту. Окрім штрафу, влада попросила Т. видалити вищезгадане фальшиве відео та публічно вибачитися перед дорожньою поліцією на його особистому каналі YouTube.

В епоху вибуху цифрових технологій , особливо швидкого розвитку штучного інтелекту, ворожі та реакційні сили не вагаються скористатися цим інструментом для створення вигаданих образів та історій з метою спотворення та очорнення іміджу В'єтнамських народних сил громадської безпеки. Фотографія, яка нещодавно поширювалася в соціальних мережах, на якій вагітній жінці в поліцейській формі погрожують двоє чоловіків з «гангстерською» зовнішністю, є яскравою демонстрацією цього трюку.

Фотографія, створена штучним інтелектом, нещодавно стала вірусною в соціальних мережах.

Фотографія, створена штучним інтелектом, нещодавно стала вірусною в соціальних мережах.

На перший погляд, глядачі можуть легко сплутати це зі справжньою сценою, що супроводжується сенсаційним заголовком на кшталт: «Бідолашний хлопець рятує вагітну поліцейську від побиття гангстерами, несподівано розкриває справу, яка шокує всю країну...». Однак насправді це лише постановочна сцена, можливо, з фільму чи розважального продукту, або, що ще гірше, зображення, створене штучним інтелектом, щоб обдурити емоції читачів, спричинити їх жаль і сумніви в достовірності діяльності правоохоронних органів.

Ще більш тривожним є те, що поширення такого контенту не лише шкодить репутації та іміджу Народних сил громадської безпеки, які вдень і вночі захищають безпеку та порядок у суспільстві, але й є витонченою формою психологічної війни. Коли довіра людей до влади підривається хибними образами, глибока мета ворожих сил розділити великий блок національної єдності поступово реалізується.

Тому кожен громадянин повинен підвищувати свою пильність, мати критичне мислення та навички виявлення фейкової інформації, а також рішуче засуджувати та спростовувати неправдивий контент, сприяючи захисту ідеологічної основи та підтримці соціальної стабільності від сучасної хвилі токсичної інформації в кіберпросторі.

У Хошиміні майже хвилинний кліп раптово став вірусним у соціальних мережах, де людина в поліцейській формі «вимогає зізнання» у порушника в офісі. На відео особа, яку вважають поліцейським, має різку поведінку, постійно кричить і лається, навіть використовує грубі слова, що викликає обурення серед громадськості.

Однак одразу після того, як кліп став вірусним, поліція міста Хошимін швидко провела розслідування та підтвердила, що це був складний діпфейк. Згідно з висновком, обличчя на відео було взято із запису внутрішньої конференції поліції, а потім зловмисники за допомогою технології штучного інтелекту перетворили його на постановочну сцену, помилково змусивши глядачів вважати, що це реальна дія.
Зокрема, супровідний аудіозапис містить погрозливий, образливий голос, який насправді не є справжніми словами жодного чиновника, а є синтезованим голосом штучного інтелекту, запрограмованим та відредагованим, щоб обдурити емоції глядача.

Цей інцидент є типовим прикладом використання технології діпфейків для спотворення та очорнення Народних сил громадської безпеки, трюку, який все частіше використовують реакційні та антиурядові сили в кіберпросторі. Варто зазначити, що якщо такі фейкові продукти не викрити вчасно, вони можуть призвести до серйозних наслідків: похитнути довіру людей до правоохоронних органів, підбурювати до опору в громаді та створювати умови для поширення неправдивих аргументів. Це чітке попередження про терміновість покращення можливостей ЗМІ спростовувати, виявляти та боротися з фейковими новинами, і водночас заклик до кожного громадянина бути пильним і не поспішати поширювати чи коментувати неперевірений контент з офіційних джерел.

В іншому нещодавньому випадку, пов'язаному з розглядом порушень у центрі техогляду транспортних засобів на півдні, вороже налаштовані суб'єкти поширили фальшиве відео, на якому керівник провінційної поліції виступає на захист офіцерів, які допустили помилки. Цей кліп поширився в Telegram та соціальних мережах під назвою «підтриманий потужними силами», але насправді він був продуктом штучного інтелекту, який взагалі не фігурував на жодній прес-конференції чи офіційному документі.

У кіберпросторі непомітно поширюється небезпечна тенденція, яка полягає в тому, що лиходії використовують технологію штучного інтелекту для створення фальшивих кліпів з метою шахрайства та шантажу. Останнім часом багато людей стають жертвами, коли їхні зображення, особливо зображення престижних людей, таких як юристи, лікарі та бізнесмени, монтуються у рекламні відеоролики, що «повертають гроші, викрадені шахрайським шляхом в Інтернеті».

У цих кліпах штучний інтелект використовується для підробки голосу та обличчя адвоката, викликаючи довіру глядачів, тим самим легко надаючи особисту інформацію або переказуючи гроші шахраю. Що ще небезпечніше, деякі суб'єкти також використовують технологію діпфейків, щоб вставити обличчя жертви у секс-відео, а потім надсилати їх своїм дружинам, чоловікам або колегам з метою погрожувати та змушувати їх переказувати гроші, щоб «зберегти справу в таємниці».

Шокуючий інцидент стався у березні 2025 року, коли жертву в Ханої попросили переказати десятки мільйонів донгів після отримання фальшивого секс-кліпу з її власним зображенням. Тим часом у Хошиміні іншу особу шантажували на суму до 2 мільярдів донгів, якщо вона не хотіла, щоб конфіденційне відео поширювалося. Міністерство громадської безпеки втрутилося, виявивши багато транснаціональних злочинних угруповань, переважно з Китаю та Південно-Східної Азії, які діяли за цими лініями та використовували недійсні SIM-картки, електронні гаманці та платформи соціальних мереж для приховування своїх осіб.

Це вже не дрібномасштабна афера, а форма «високотехнологічної психологічної війни», яка глибоко експлуатує страх честі та соціальних зв’язків, щоб чинити тиск на жертву. Якщо не підвищити свою пильність, навички виявлення інформації та незвичайну поведінку, будь-хто може стати «здобиччю» в руках злочинців, які використовують високі технології. Перед обличчям цієї витонченої хвилі підробок кожен громадянин повинен бути пильним, категорично не поширювати особисту інформацію без розбору та бути готовим висловитися, щоб засудити незаконні дії, сприяючи захисту безпеки себе та громади.

Для боротьби із загрозою діпфейку потрібен «цифровий щит» з боку спільноти.

За даними Департаменту радіо, телебачення та електронної інформації (Міністерства культури, спорту та туризму), у 2024 році цифрові платформи у В'єтнамі були змушені видалити понад 4000 відео, що містили неправдиву та спотворену інформацію, більшість з яких були продуктами, створеними за допомогою технологій штучного інтелекту, таких як діпфейк, клонування голосу... Тільки TikTok — платформу, популярну серед молоді, — попросили видалити понад 1300 діпфейкових кліпів, переважно пов'язаних з поліцією, урядом та соціальною політикою.

В епоху технологічного вибуху штучний інтелект відкриває проривний потенціал, але також несе безпрецедентні небезпеки, особливо продукти з депфейками та спотвореним контентом, що атакують репутацію державних установ. Опитування, проведене Інститутом досліджень медіа MICRI, показує, що 62% користувачів соціальних мереж у В'єтнамі не можуть розрізнити реальність та фейк без попереджень від основних ЗМІ чи влади. Це «когнітивна прогалина», яку злі сили всебічно використовують для поширення неправдивої інформації, що спричиняє соціально-психологічні розлади.

Тонг Ван Т. у поліцейській дільниці.

Тонг Ван Т. у поліцейській дільниці.

За словами генерал-майора, доцента, доктора До Кань Тхіна, експерта з кримінології, використання штучного інтелекту для створення фальшивих відео лідерів, редагування неправдивих заяв або спотворення професійних дій поліції – це новий, але особливо небезпечний трюк. «Діпфейк – це не просто розважальний продукт, а форма сучасної інформаційної війни, здатна руйнувати довіру, спричиняти соціальну нестабільність і яку дуже важко контролювати», – прокоментував генерал-майор До Кань Тхін.

Насправді, кліпи, маніпульовані штучним інтелектом, не є нешкідливими, а часто стосуються делікатних тем, таких як розслідування порушень, злочинів, боротьба з корупцією тощо, що призводить до плутанини та підозри у людей щодо правоохоронних органів. Ще більш тривожним є те, що багато відео поширюються на основних платформах, таких як YouTube та TikTok, і мають сотні тисяч переглядів, перш ніж їх видаляють, створюючи негативний вірусний ефект.

Експерт з цифрових медіа Хоанг Мінь попереджає: «Всього одним поширенням чи одним лайком без обережності можна стати посередником фейкових новин. Кожен користувач Інтернету повинен розуміти, що поведінка в цифровому просторі також має реальні наслідки».

У цьому контексті, як ніколи раніше, потрібно побудувати «цифровий щит» від самої спільноти: тобто пильність, інформаційний імунітет та відповідальність за мережеве середовище. Технології можуть бути нейтральними, але те, як люди їх використовують, визначатиме, чи стане ШІ рушійною силою розвитку, чи силою, що руйнує соціальну довіру. Підтримка ідеологічного фронту, захист іміджу солдата Народної громадської безпеки – це захист основи національної безпеки, завдання не лише функціонального сектору, а й кожного громадянина в цифрову епоху.

Джерело: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій категорії

Собор Нотр-Дам у Хошиміні яскраво освітлений, щоб зустріти Різдво 2025 року
Дівчата з Ханоя гарно "вбираються" на Різдво
Осяяні після шторму та повені, мешканці хризантемового села Тет у Гіа Лай сподіваються, що перебоїв з електроенергією не буде, щоб врятувати рослини.
Столиця жовтого абрикоса в Центральному регіоні зазнала великих збитків після подвійного стихійного лиха

Того ж автора

Спадщина

Фігура

Бізнес

Кав'ярня в Далаті зазнала зростання кількості клієнтів на 300% завдяки тому, що власник зіграв роль у фільмі про бойові мистецтва

Поточні події

Політична система

Місцевий

Продукт

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC