Пришло время каждому пользователю стать «цифровым щитом», быть бдительным, внимательным и ответственным за каждый клик и репост.
Преимущества и тонкая грань ИИ
Искусственный интеллект никогда не был так близок к жизни, как сегодня. Всего несколько кликов, одна короткая команда — и можно создавать голоса, изображения и даже видео с поразительной реалистичностью. ИИ помогает экономить время, снижать затраты на производство контента и открывает эру гибких цифровых медиа.
Однако способность «реалистично имитировать» стала палкой о двух концах. В последнее время в социальных сетях постоянно появляются видеоролики, созданные с использованием технологии deepfake, в которых лица руководителей полиции, изображения сотрудников спецподразделений, занимающихся деликатными делами... вырезаны и вставлены, озвучены искажёнными голосами, чтобы вызвать недопонимание и разобщить людей.
Подобные постановочные изображения все чаще появляются в социальных сетях.
В ролике, распространяемом в TikTok, изображение сотрудника дорожной полиции при исполнении служебных обязанностей сопровождалось оскорбительными репликами и хэштегом «штрафовать за то, что штрафуют», намекая на то, что сотрудник полиции злоупотребляет властью ради личной выгоды. Многие пользователи, особенно молодёжь, легко поверили этому контенту, поскольку изображение было настолько реалистичным, а голос был настолько близок к форме губ, что стало крайне сложно отличить настоящего от поддельного.
Молодой ютубер из Дьенбьена , решивший «похвастаться» своим мастерством в применении технологий искусственного интеллекта, был вынужден поплатиться административным штрафом и публичными извинениями лишь за то, что решился на это. Днём 24 января полиция провинции Дьенбьен объявила, что Департамент кибербезопасности и предотвращения преступлений в сфере высоких технологий вынес решение о наложении административного штрафа на Тонга Ван Т. (2001 года рождения, проживающего в округе Мыонганг) в размере 7,5 млн донгов за использование искусственного интеллекта для создания фейкового видеоролика с искажённым содержанием и оскорблением сотрудников дорожной полиции.
В частности, 7 января Т. загрузил в YouTube-аккаунт «Tuyền Vlog» видео продолжительностью более трёх минут с шокирующим названием: «Во время прогулки за мной гналась дорожная полиция». В ролике были использованы постановочные кадры и ситуации с использованием искусственного интеллекта, имитирующие преследование людей сотрудниками дорожной полиции, а также эффекты и комментарии, носящие оскорбительный и порочащий честь и достоинство представителей власти.
В сотрудничестве с полицией Т. признал, что весь контент ролика был фейком, созданным с целью «развлечения» и демонстрации возможностей использования технологий искусственного интеллекта. Помимо штрафа, власти потребовали от Т. удалить указанное выше фейковое видео и публично извиниться перед ГИБДД на его личном канале на YouTube.
В эпоху бурного развития цифровых технологий , особенно стремительного развития искусственного интеллекта, враждебные и реакционные силы не преминули воспользоваться этим инструментом для создания сфабрикованных образов и историй с целью искажения и дискредитации вьетнамских Народных сил общественной безопасности. Недавно в социальных сетях распространилась фотография, на которой двое мужчин с «бандитской» внешностью угрожают беременной женщине в полицейской форме, что наглядно демонстрирует этот трюк.
Недавно созданная с помощью искусственного интеллекта фотография стала вирусной в социальных сетях.
На первый взгляд, зрители легко могут принять это за реальную сцену, сопровождаемую сенсационным заголовком вроде: «Бедный мальчик спасает беременную сотрудницу полиции от избиений гангстеров, неожиданно раскрывая дело, которое потрясает всю страну...». Однако на самом деле это всего лишь постановочная сцена, возможно, из фильма или развлекательного продукта, или, что ещё хуже, изображение, созданное искусственным интеллектом, чтобы обмануть эмоции читателей, вызывая у них жалость и сомнения в подлинности действий правоохранительных органов.
Ещё более тревожно то, что распространение подобного контента не только наносит ущерб репутации и имиджу Народных сил общественной безопасности, которые день и ночь охраняют безопасность и порядок в обществе, но и является изощрённой формой психологической войны. Когда доверие людей к власти подрывается ложными образами, глубинная цель враждебных сил – расколоть великий блок национального единства – постепенно реализуется.
Поэтому каждому гражданину необходимо повысить свою бдительность, развить критическое мышление и навыки распознавания фейковой информации, а также решительно разоблачать и опровергать ложный контент, способствуя защите идеологической основы и поддержанию социальной стабильности на фоне нынешней волны токсичной информации в киберпространстве.
В Хошимине в социальных сетях внезапно разлетелся почти минутный ролик, на котором запечатлена сцена, где человек в полицейской форме «вымогает признание» у нарушителя в офисе. На видео человек, предположительно полицейский, ведёт себя грубо, постоянно кричит и ругается, иногда даже используя грубые слова, что вызвало возмущение общественности.
Однако сразу после того, как ролик стал вирусным, полиция Хошимина быстро провела расследование и подтвердила, что это был сложный дипфейк. Согласно заключению, лицо на видео было извлечено из записи внутреннего совещания полиции, а затем с помощью искусственного интеллекта злоумышленники вставили его в постановочную сцену, заставив зрителей ошибочно поверить в реальность происходящего.
В частности, сопровождающий аудиоматериал содержит угрожающий, оскорбительный голос, который на самом деле не является реальными словами какого-либо официального лица, а представляет собой синтезированный голос искусственного интеллекта, запрограммированный и отредактированный с целью обмануть эмоции зрителя.
Этот инцидент является типичным примером использования технологии deepfake для искажения и дискредитации Народных сил общественной безопасности. Этот приём всё чаще используется реакционными и антиправительственными силами в киберпространстве. Стоит отметить, что, если не разоблачить подобные фейковые материалы своевременно, они могут привести к серьёзным последствиям: подрыву доверия к правоохранительным органам, разжиганию сопротивления в обществе и созданию условий для распространения ложных утверждений. Это чёткое предупреждение о необходимости повышения потенциала СМИ в области опровержения, выявления и борьбы с фейковыми новостями, а также призыв к каждому гражданину быть бдительным и не спешить распространять или комментировать непроверенную информацию из официальных источников.
В другом недавнем случае, связанном с обработкой нарушений в пункте техосмотра на юге страны, злоумышленники распространили фейковое видео, на котором руководитель полиции провинции выступает в защиту допустивших ошибки сотрудников. Этот ролик распространялся в Telegram и социальных сетях под заголовком «при поддержке влиятельных сил», но на самом деле являлся продуктом искусственного интеллекта и не фигурировал ни в одной пресс-конференции или официальном документе.
В киберпространстве незаметно распространяется опасная тенденция: злоумышленники используют технологии искусственного интеллекта для создания фейковых видеороликов с целью мошенничества и шантажа. В последнее время многие люди стали жертвами мошенничества, когда их изображения, особенно изображения известных людей, таких как юристы, врачи и бизнесмены, встраиваются в рекламные видеоролики о «возвращении денег, полученных мошенничеством в интернете».
В этих роликах искусственный интеллект используется для подделки голоса и лица адвоката, вызывая доверие у зрителей, что позволяет им легко предоставить личную информацию или перевести деньги мошеннику. Что ещё опаснее, некоторые злоумышленники также используют технологию deepfake, чтобы вставлять лицо жертвы в видео сексуального характера, а затем отправлять их их жёнам, мужьям или коллегам, угрожая им и вынуждая их перевести деньги, чтобы «сохранить дело в тайне».
В марте 2025 года произошёл шокирующий инцидент: жертву из Ханоя попросили перевести десятки миллионов донгов после получения фейкового секс-видео с его изображением. Тем временем в Хошимине другого человека шантажом вымогали до 2 миллиардов донгов, если он не хотел, чтобы это деликатное видео распространялось. Министерство общественной безопасности вмешалось, выявив множество транснациональных преступных группировок, в основном из Китая и Юго-Восточной Азии, которые скрывали свои личности, используя ненужные SIM-карты, электронные кошельки и платформы социальных сетей.
Это уже не мелкое мошенничество, а форма «высокотехнологичной психологической войны», эксплуатирующая страх чести и социальных связей для оказания давления на жертву. Если не повысить бдительность, навыки распознавания информации и не проявлять нестандартного поведения, любой может стать «добычей» в руках преступников, использующих высокие технологии. Перед лицом этой волны изощрённого мошенничества каждый гражданин должен быть бдительным, ни в коем случае не распространять личную информацию без разбора и быть готовым открыто осуждать незаконные действия, способствуя защите своей безопасности и безопасности общества.
Для борьбы с угрозой дипфейка необходим «цифровой щит» со стороны сообщества.
По данным Департамента радио, телевидения и электронной информации (Министерство культуры, спорта и туризма), в 2024 году цифровые платформы Вьетнама должны были удалить более 4000 видеороликов, содержащих ложную и искаженную информацию, большинство из которых были продуктами, созданными с помощью технологий искусственного интеллекта, такими как deepfake, клонирование голоса... Только TikTok — платформа, популярная среди молодежи — получила требование удалить более 1300 deepfake-роликов, в основном связанных с полицией, правительством и социальной политикой.
В эпоху бурного развития технологий искусственный интеллект открывает прорывной потенциал, но также таит в себе беспрецедентные опасности, особенно в виде фейковых продуктов с искажённым контентом, которые подрывают репутацию государственных органов. Опрос, проведённый Институтом медиа-исследований MICRI, показывает, что 62% пользователей социальных сетей во Вьетнаме не могут отличить правду от лжи без предупреждений со стороны основных СМИ или властей. Это «когнитивный пробел», которым злоумышленники активно пользуются для распространения ложной информации, вызывая социально-психологические нарушения.
Тонг Ван Т. в полицейском участке.
По словам генерал-майора, доцента, доктора До Кань Тхина, эксперта по криминологии, использование ИИ для создания фейковых видеороликов с участием лидеров, монтажа ложных заявлений или искажения профессиональных действий полиции — это новый, но особенно опасный метод. «Дипфейк — это не просто развлекательный продукт, а форма современной информационной войны, способная разрушить доверие, вызвать социальную нестабильность и которую очень сложно контролировать», — прокомментировал генерал-майор До Кань Тхин.
На самом деле, обработанные искусственным интеллектом клипы не безобидны, но часто затрагивают деликатные темы, такие как борьба с нарушениями, расследование преступлений, борьба с коррупцией и т. д., вызывая у людей недоумение и подозрения по отношению к правоохранительным органам. Ещё более тревожно то, что многие видео, распространяемые на крупных платформах, таких как YouTube и TikTok, набирают сотни тысяч просмотров, прежде чем их удаляют, что создаёт негативный вирусный эффект.
Эксперт по цифровым медиа Хоанг Минь предупреждает: «Всего один репост или один лайк, не проявив должной осторожности, вы можете стать распространителем фейковых новостей. Каждый пользователь интернета должен понимать, что поведение в цифровом пространстве имеет реальные последствия».
В этом контексте как никогда необходимо создать «цифровой щит» от самого сообщества: бдительность, информационный иммунитет и ответственность за сетевое окружение. Технологии могут быть нейтральными, но то, как люди их используют, определит, станет ли ИИ движущей силой развития или силой, разрушающей общественное доверие. Поддержание идеологического фронта, защита имиджа солдата Народной общественной безопасности – это защита основ национальной безопасности, задача не только функционального сектора, но и каждого гражданина в цифровую эпоху.
Источник: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Комментарий (0)