Пришло время каждому пользователю стать «цифровым щитом», быть бдительным, внимательным и ответственным за каждый клик и репост.
Преимущества и тонкая грань ИИ
Искусственный интеллект никогда не был так близок к жизни, как сегодня. Всего несколько кликов, одна короткая команда — и можно создавать голоса, изображения и даже видео с поразительной реалистичностью. ИИ помогает экономить время, снижать затраты на производство контента и открывает эру гибких цифровых медиа.
Однако способность «реалистично имитировать» стала палкой о двух концах. В последнее время в социальных сетях постоянно появляются видеоролики, созданные с использованием технологии deepfake, в которых лица руководителей полиции, изображения сотрудников спецподразделений, занимающихся деликатными делами... вырезаны, дублированы и искажены, чтобы вызвать недопонимание и разобщить людей.
Подобные постановочные изображения все чаще появляются в социальных сетях.
В ролике, распространяемом в TikTok, изображение сотрудника дорожной полиции при исполнении служебных обязанностей сопровождалось оскорбительными репликами и хэштегом «штраф для галочки», намекающим на то, что сотрудник полиции злоупотребляет властью в личных целях. Многие пользователи, особенно молодёжь, легко поверили этому контенту, поскольку изображение было настолько реалистичным, а голос был настолько близок к форме губ, что было крайне сложно отличить настоящий голос от поддельного.
Молодой ютубер из Дьенбьена, решивший «похвастаться» своим умением применять технологии искусственного интеллекта, был вынужден поплатиться административным штрафом и публичными извинениями лишь за то, что решился на это. Днём 24 января полиция провинции Дьенбьен объявила, что Департамент кибербезопасности и предотвращения преступлений в сфере высоких технологий вынес решение о наложении административного штрафа на Тонга Ван Т. (2001 года рождения, проживающего в округе Мыонганг) в размере 7,5 млн донгов за использование искусственного интеллекта для создания фейкового видеоролика с искажённым содержанием и оскорблением сотрудников дорожной полиции.
В частности, 7 января Т. загрузил в YouTube-аккаунт «Tuyền Vlog» видео продолжительностью более трёх минут с шокирующим названием: «Во время прогулки за мной гналась дорожная полиция». В ролике кадры и ситуации были смонтированы с использованием искусственного интеллекта, имитируя преследование людей сотрудниками дорожной полиции, в сочетании со спецэффектами и комментариями, оскорбляющими и порочащими власть.
В сотрудничестве с полицией Т. признал, что весь контент ролика является фейком, созданным с целью «развлечения» и демонстрации возможностей использования технологий искусственного интеллекта. Помимо штрафа, власти потребовали от Т. удалить указанное выше фейковое видео и публично извиниться перед сотрудниками ГИБДД на его личном канале в YouTube.
В эпоху бурного развития цифровых технологий, особенно стремительного развития искусственного интеллекта, враждебные и реакционные силы не преминули воспользоваться этим инструментом для создания сфабрикованных образов и историй с целью искажения и дискредитации вьетнамских сил общественной безопасности. Недавно в социальных сетях распространилась фотография, на которой двое мужчин, выглядящих как «бандиты», угрожают беременной женщине в форме полицейского, что наглядно демонстрирует этот трюк.
Недавно созданная с помощью искусственного интеллекта фотография стала вирусной в социальных сетях.
На первый взгляд, зрители могут принять это за реальную сцену, сопровождаемую сенсационным заголовком вроде: «Бедный мальчик спасает беременную женщину-полицейского от избиения гангстерами, неожиданно раскрывая дело, которое потрясает всю страну...». Однако на самом деле это всего лишь постановочная сцена, возможно, из фильма или развлекательного продукта, или, что ещё хуже, изображение, созданное искусственным интеллектом, чтобы обмануть эмоции читателя, вызывая у него жалость и сомнения в подлинности действий правоохранительных органов.
Ещё более тревожно то, что распространение подобного контента не только наносит ущерб репутации и имиджу Народных сил общественной безопасности, которые день и ночь охраняют безопасность и порядок в обществе, но и является формой изощрённой психологической войны. Когда доверие людей к власти подрывается ложными образами, глубинная цель враждебных сил – расколоть великий блок национального единства – постепенно реализуется.
Поэтому каждому гражданину необходимо повысить свою бдительность, развить критическое мышление и навыки распознавания фейковой информации, а также решительно разоблачать и опровергать ложный контент, способствуя защите идеологической основы и поддержанию социальной стабильности на фоне нынешней волны токсичной информации в киберпространстве.
В Хошимине в социальных сетях внезапно разлетелся почти минутный ролик, на котором запечатлена сцена, где человек в полицейской форме «вымогает признания» у нарушителя в офисе. На видео человек, предположительно сотрудник полиции, ведёт себя грубо, постоянно кричит и ругается, используя даже грубые выражения, что вызвало возмущение общественности.
Однако сразу после того, как ролик стал вирусным, полиция Хошимина быстро провела расследование и подтвердила, что это был сложный дипфейк. Согласно заключению, лицо на видео было извлечено из записи внутреннего совещания полиции, а затем с помощью искусственного интеллекта злоумышленники вставили его в постановочную сцену, заставив зрителей ошибочно поверить в реальность происходящего.
В частности, сопровождающий аудиоматериал содержит угрожающий, оскорбительный голос, который на самом деле не является реальными словами какого-либо офицера, а представляет собой синтезированный голос искусственного интеллекта, запрограммированный и отредактированный с целью обмануть эмоции зрителя.
Данный инцидент является типичным примером использования технологии deepfake для искажения и дискредитации Народных сил общественной безопасности. Этот приём всё чаще используется реакционными и антиправительственными силами в киберпространстве. Стоит отметить, что, если не разоблачить подобные фейковые материалы своевременно, они могут привести к серьёзным последствиям: подрыву доверия к правоохранительным органам, разжиганию сопротивления в обществе и созданию условий для распространения ложных утверждений. Это чёткое предупреждение о необходимости повышения эффективности работы СМИ по опровержению, выявлению и борьбе с фейковыми новостями, а также призыв к каждому гражданину быть бдительным и не спешить распространять или комментировать непроверенную информацию из официальных источников.
В другом недавнем случае, связанном с обработкой нарушений в пункте техосмотра на юге, злоумышленники распространили фейковое видео, на котором руководитель полиции провинции выступает в «защиту допустивших ошибку сотрудников». Этот ролик распространялся в Telegram и социальных сетях под заголовком «поддержанный влиятельными силами», но на самом деле являлся продуктом искусственного интеллекта и не фигурировал ни в одной пресс-конференции или официальном документе.
В киберпространстве незаметно распространяется опасная тенденция: злоумышленники используют технологии искусственного интеллекта для создания фейковых видеороликов с целью мошенничества и шантажа. В последнее время многие люди стали жертвами мошенничества, когда их изображения, особенно изображения известных людей, таких как юристы, врачи и бизнесмены, встраиваются в рекламные видеоролики о «возвращении денег, полученных мошенничеством в интернете».
В этих роликах искусственный интеллект имитирует голос и лицо адвоката, вызывая у зрителей доверие к нему, что позволяет им легко предоставлять личную информацию или переводить деньги мошеннику. Что ещё опаснее, некоторые злоумышленники также используют технологию deepfake, чтобы вставлять лицо жертвы в видео сексуального характера, а затем отправлять их супругам или коллегам, угрожая им и вынуждая их перевести деньги, чтобы «сохранить дело в тайне».
В марте 2025 года произошёл шокирующий инцидент: жертву из Ханоя попросили перевести десятки миллионов донгов после получения фейкового секс-видео с её изображением. Тем временем в Хошимине другого человека шантажировали, требуя до 2 миллиардов донгов, если он не захочет, чтобы это деликатное видео распространялось. Министерство общественной безопасности вмешалось, выявив множество транснациональных преступных группировок, в основном из Китая и Юго-Восточной Азии, которые скрывали свои личности и использовали ненужные SIM-карты, электронные кошельки и платформы социальных сетей.
Это уже не мелкое мошенничество, а форма «высокотехнологичной психологической войны», эксплуатирующая глубокий страх чести и социальных отношений для оказания давления на жертву. Если не повысить бдительность, навыки распознавания информации и не проявлять нестандартного поведения, любой может стать «добычей» в руках преступников, использующих высокие технологии. Перед лицом этой волны изощрённого мошенничества каждый гражданин должен быть бдительным, ни в коем случае не распространять личную информацию без разбора и быть готовым открыто осуждать незаконные действия, способствуя защите своей безопасности и безопасности общества.
Для борьбы с угрозой дипфейков необходим общественный «цифровой щит».
По данным Департамента радио, телевидения и электронной информации (Министерство культуры, спорта и туризма), в 2024 году цифровым платформам Вьетнама пришлось удалить более 4000 видеороликов, содержащих ложную и искаженную информацию, большинство из которых были продуктами, созданными с помощью технологий искусственного интеллекта, такими как deepfake, клонирование голоса... Только TikTok — популярная среди молодежи платформа — получила требование удалить более 1300 deepfake-роликов, в основном связанных с полицией, правительством и социальной политикой.
В эпоху бурного развития технологий искусственный интеллект открывает прорывной потенциал, но также таит в себе беспрецедентные опасности, особенно в виде фейковых продуктов с искажённым контентом, которые подрывают репутацию государственных органов. Опрос, проведённый Институтом медиа-исследований MICRI, показывает, что 62% пользователей социальных сетей во Вьетнаме не могут отличить правду от фейка без предупреждений со стороны основных СМИ или властей. Это «когнитивный пробел», которым злоумышленники активно пользуются для распространения ложной информации, разрушая социальную психологию.
Тонг Ван Т. в полицейском участке.
По словам генерал-майора, доцента, доктора До Кань Тхина, эксперта по криминологии, использование ИИ для создания фейковых видеороликов с участием лидеров, монтажа ложных заявлений или искажения профессиональных действий полиции — это новый, но особенно опасный метод. «Дипфейк — это не просто развлекательный продукт, а форма современной информационной войны, способная разрушить доверие, вызвать социальную нестабильность и которую очень сложно контролировать», — заявил генерал-майор До Кань Тхин.
На самом деле, обработанные искусственным интеллектом клипы не безобидны, но часто затрагивают деликатные темы, такие как борьба с нарушениями, расследование преступлений, борьба с коррупцией и т. д., вызывая у людей недоумение и подозрения по отношению к правоохранительным органам. Ещё более тревожно то, что многие видео также публикуются на крупных платформах, таких как YouTube и TikTok, набирая сотни тысяч просмотров, прежде чем их удаляют, что создаёт негативный вирусный эффект.
Эксперт по цифровым медиа Хоанг Минь предупреждает: «Всего один репост или один лайк, не проявив должной осторожности, вы можете стать распространителем фейковых новостей. Каждый пользователь интернета должен понимать, что поведение в цифровом пространстве имеет реальные последствия».
В этом контексте как никогда необходимо создать «цифровой щит» от самого сообщества: бдительность, информационный иммунитет и ответственность за сетевое окружение. Технологии могут быть нейтральными, но то, как люди их используют, определит, станет ли ИИ движущей силой развития или силой, разрушающей общественное доверие. Поддержание идеологического фронта, защита имиджа солдата Народной общественной безопасности – это защита основ национальной безопасности, задача не только функционального сектора, но и каждого гражданина в цифровую эпоху.
Источник: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html
Комментарий (0)