Vietnam.vn - Nền tảng quảng bá Việt Nam

Двойственность ИИ

Искусственный интеллект (ИИ) открывает множество возможностей, но он также становится опасным инструментом, когда его используют для создания фейковых deepfake-видео, искажая образ полиции, правительства и подстрекая общественное мнение. Эти искусно отредактированные клипы не только подрывают доверие к властям, но и являются изощренной формой психологической войны в киберпространстве.

Báo Lạng SơnBáo Lạng Sơn18/06/2025



Пришло время каждому пользователю стать «цифровым щитом», быть внимательным, бдительным и ответственным за каждый клик и репост.

Преимущества и тонкая грань ИИ

Искусственный интеллект никогда не был ближе к жизни, чем сегодня. Всего несколько щелчков, короткая команда может создавать голоса, изображения и даже видео с поразительной реалистичностью. ИИ помогает экономить время, сокращать затраты на производство контента и открывать эру гибких цифровых медиа.

Однако способность «реалистично моделировать» стала палкой о двух концах. В последнее время в социальных сетях постоянно появляются видеоролики, созданные с помощью технологии deepfake, в которых лица руководителей полиции, изображения функциональных сил в деликатных делах... вырезаны и вставлены, дублированы и искажены, чтобы вызвать непонимание и разделить людей.

Подобные постановочные изображения все чаще появляются в социальных сетях.

Подобные постановочные изображения все чаще появляются в социальных сетях.

В клипе, распространенном в TikTok, изображение сотрудника дорожной полиции при исполнении служебных обязанностей сопровождалось оскорбительным диалогом, а также хэштегом «штраф за показуху», подразумевающим, что сотрудник полиции злоупотребляет своей властью в личных целях. Многие пользователи, особенно молодые люди, легко поверили этому контенту, поскольку изображение было настолько реалистичным, а голос был настолько близок к форме рта, что было крайне сложно отличить настоящий голос от поддельного.

Только потому, что он хотел «похвастаться» своей способностью применять технологию ИИ, молодой ютубер из Дьенбьена должен был заплатить цену в виде административного штрафа и принуждения к публичным извинениям. Днем 24 января полиция провинции Дьенбьен объявила, что Департамент кибербезопасности и профилактики высокотехнологичных преступлений вынес решение о наложении административного штрафа на Тонга Ван Т. (родившегося в 2001 году, проживающего в районе Муонганг) на сумму 7,5 млн донгов за использование ИИ для создания фейкового видео с искаженным содержанием и оскорбление дорожной полиции.

В частности, 7 января T. загрузил на YouTube-аккаунт «Tuyền Vlog» видео продолжительностью более 3 минут с шокирующим названием: «Во время тусовки за мной гналась дорожная полиция». В клипе изображения и ситуации были постановочными с использованием технологии искусственного интеллекта, имитирующей преследование людей дорожными полицейскими, в сочетании с эффектами и комментариями, которые нападают и порочат власть.

Работая с полицией, Т. признал, что весь контент клипа был поддельным продуктом, имеющим целью «развлечение» и демонстрацию возможности использования технологии ИИ. В дополнение к штрафу власти потребовали от Т. удалить указанное выше ложное видео и публично извиниться перед дорожной полицией на его личном канале YouTube.

В эпоху взрыва цифровых технологий , особенно быстрого развития искусственного интеллекта, враждебные и реакционные силы не колеблясь воспользовались этим инструментом для создания сфабрикованных изображений и историй с целью искажения и дискредитации имиджа вьетнамских сил общественной безопасности. Фотография, которая недавно распространилась в социальных сетях, на которой беременной женщине в полицейской форме угрожают двое мужчин с внешностью «гангстеров», является наглядной демонстрацией этого трюка.

Недавно фотография, созданная с помощью искусственного интеллекта, стала вирусной в социальных сетях.

Недавно фотография, созданная с помощью искусственного интеллекта, стала вирусной в социальных сетях.

На первый взгляд зрители могут принять это за реальную сцену, сопровождаемую сенсационным заголовком вроде: «Бедный мальчик спасает беременную женщину-полицейского от избиений гангстерами, неожиданно открывает дело, которое потрясает всю страну...». Однако на самом деле это всего лишь постановочная сцена, возможно, из фильма или развлекательного продукта, или, что еще хуже, изображение, созданное искусственным интеллектом, чтобы обмануть эмоции читателя, заставив его испытывать жалость и сомневаться в подлинности действий правоохранительных органов.

Еще более тревожно то, что распространение такого контента не только наносит ущерб репутации и имиджу Народных сил общественной безопасности, которые день и ночь защищают безопасность и порядок в обществе, но и является формой изощренной психологической войны. Когда доверие людей к властям подрывается ложными образами, глубинная цель враждебных сил разделить великий блок национального единства постепенно реализуется.

Поэтому каждому гражданину необходимо повысить свою бдительность, обладать критическим мышлением и навыками распознавания фейковой информации, а также решительно осуждать и опровергать ложный контент, способствуя защите идеологической основы и поддержанию социальной стабильности на фоне нынешней волны токсичной информации в киберпространстве.

В Хошимине в социальных сетях внезапно стал вирусным почти минутный клип, на котором запечатлена сцена, в которой человек в полицейской форме «вымогает признания» у нарушителя в офисе. На видео человек, которого считают сотрудником полиции, ведет себя грубо, постоянно кричит и ругается, даже использует грубые слова, что вызывает возмущение общественности.

Однако сразу после того, как клип стал вирусным, полиция города Хошимин быстро провела расследование и подтвердила, что это был сложный продукт deepfake. Согласно заключению, лицо на видео было извлечено из записи внутренней конференции полиции, а затем с помощью технологии искусственного интеллекта злодеи поместили его в постановочную сцену, заставив зрителей ошибочно поверить, что это был настоящий акт.
В частности, сопровождающий звук включает угрожающий, оскорбительный голос, который на самом деле не является реальными словами какого-либо офицера, а представляет собой синтезированный голос искусственного интеллекта, запрограммированный и отредактированный для обмана эмоций зрителя.

Инцидент является типичным примером использования технологии deepfake для искажения и дискредитации Народных сил общественной безопасности, трюк, который все чаще используется реакционными и антиправительственными силами в киберпространстве. Стоит отметить, что если не разоблачить такие фейковые продукты, они могут привести к серьезным последствиям: подорвать доверие людей к правоохранительным органам, вызвать сопротивление в обществе и создать условия для распространения ложных аргументов. Это четкое предупреждение о срочности улучшения возможностей СМИ по опровержению, обнаружению и борьбе с фейковыми новостями, и в то же время призыв к каждому гражданину быть бдительным и не спешить делиться или комментировать непроверенный контент из официальных источников.

В другом недавнем случае, связанном с обработкой нарушений в центре техосмотра транспортных средств на юге, враждебно настроенные субъекты распространили фейковое видео, на котором руководитель провинциальной полиции выступает в «защиту заблудших офицеров». Этот клип был распространен в Telegram и социальных сетях под заголовком «при поддержке могущественных сил», но на самом деле это был продукт ИИ, который вообще не фигурировал ни в одной пресс-конференции или официальном документе.

В киберпространстве тихо распространяется опасная тенденция, когда злодеи используют технологию ИИ для создания фейковых клипов с целью мошенничества и шантажа. В последнее время многие люди стали жертвами, когда их изображения, особенно изображения престижных людей, таких как юристы, врачи и бизнесмены, монтируются в рекламные видеоролики «по возврату денег, полученных мошенническим путем в Интернете».

В этих клипах ИИ используется для имитации голоса и лица адвоката, заставляя зрителей доверять ему, тем самым легко предоставляя личную информацию или переводя деньги мошеннику. Что еще опаснее, некоторые субъекты также используют технологию deepfake, чтобы вставлять лицо жертвы в сексуальные видеоролики, а затем отправлять их своим супругам или коллегам с целью запугивания и принуждения их переводить деньги, чтобы «сохранить дело в тайне».

Шокирующий инцидент произошел в марте 2025 года, когда жертву в Ханое попросили перевести десятки миллионов донгов после получения поддельного секс-клипа с ее собственным изображением. Тем временем в Хошимине еще один человек подвергся шантажу на сумму до 2 миллиардов донгов, если он не хотел, чтобы деликатное видео распространилось. Министерство общественной безопасности вмешалось, выявив множество транснациональных преступных групп, в основном из Китая и Юго-Восточной Азии, которые стояли за этими линиями и использовали ненужные SIM-карты, электронные кошельки и платформы социальных сетей, чтобы скрыть свою личность.

Это уже не мелкомасштабное мошенничество, а форма «высокотехнологичной психологической войны», которая глубоко эксплуатирует страх чести и социальных отношений, чтобы оказывать давление на жертву. Если вы не повысите свою бдительность, навыки идентификации информации и необычного поведения, любой может стать «добычей» в руках преступников, использующих высокие технологии. Перед лицом этой сложной волны подделок каждый гражданин должен быть бдительным, ни в коем случае не делиться личной информацией без разбора и быть готовым высказаться, чтобы осудить незаконные действия, способствуя защите своей безопасности и безопасности общества.

Для борьбы с угрозой дипфейков необходим «цифровой щит» на уровне сообщества.

По данным Департамента радио, телевидения и электронной информации (Министерство культуры, спорта и туризма), в 2024 году цифровые платформы Вьетнама должны были удалить более 4000 видеороликов, содержащих ложную и искаженную информацию, большинство из которых были продуктами, созданными с помощью технологий искусственного интеллекта, такими как deepfake, клонирование голоса... Только TikTok — популярная среди молодежи платформа — получила требование удалить более 1300 deepfake-клипов, в основном связанных с полицией, правительством и социальной политикой.

В эпоху технологического взрыва искусственный интеллект открывает прорывной потенциал, но также влечет за собой беспрецедентные опасности, особенно продукты deepfake с искаженным содержанием, наносящие ущерб репутации государственных учреждений. Опрос, проведенный Институтом медиа-исследований MICRI, показывает, что: 62% пользователей социальных сетей во Вьетнаме не могут отличить правду от фейка без предупреждений со стороны основных СМИ или властей. Это «когнитивный разрыв», который злонамеренные силы тщательно используют для распространения ложной информации, нарушая социальную психологию.

Тонг Ван Т. в полицейском участке.

Тонг Ван Т. в полицейском участке.

По словам генерал-майора, доцента, доктора До Кань Тхина, эксперта по криминологии, использование ИИ для создания поддельных видеороликов лидеров, редактирования ложных заявлений или искажения профессиональных действий полиции является новым, но особенно опасным приемом. «Дипфейк — это не просто развлекательный продукт, а форма современной информационной войны, способная разрушить доверие, вызвать социальную нестабильность и очень трудно поддающаяся контролю», — сказал генерал-майор До Кань Тхин.

На самом деле, обработанные ИИ клипы не безобидны, но часто затрагивают такие деликатные темы, как обращение с нарушениями, расследование преступлений, борьба с коррупцией и т. д., вызывая у людей недоумение и подозрение по отношению к правоохранительным органам. Еще более тревожно то, что многие видео также распространяются на крупных платформах, таких как YouTube и TikTok, с сотнями тысяч просмотров, прежде чем их удаляют, создавая негативный вирусный эффект.

Эксперт по цифровым медиа Хоанг Минь предупреждает: «С помощью всего лишь одного репоста или одного лайка, не проявив осторожности, вы можете стать распространителем фейковых новостей. Каждый пользователь интернета должен понимать, что поведение в цифровом пространстве также имеет реальные последствия».

В этом контексте как никогда необходимо построить «цифровой щит» от самого сообщества: то есть бдительность, информационный иммунитет и ответственность за сетевую среду. Технология может быть нейтральной, но то, как люди ее используют, определит, станет ли ИИ движущей силой развития или силой, разрушающей общественное доверие. Поддержание идеологического фронта, защита образа солдата Народной общественной безопасности — это защита основ национальной безопасности, задача не только функционального сектора, но и каждого гражданина в цифровую эпоху.

Источник: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html


Комментарий (0)

No data
No data

Та же категория

Взрываются фейерверки, туризм набирает обороты, Дананг выигрывает летом 2025 года
Поучаствуйте в ночной ловле кальмаров и наблюдении за морскими звездами на жемчужном острове Фукуок
Откройте для себя процесс приготовления самого дорогого лотосового чая в Ханое.
Полюбуйтесь уникальной пагодой, сделанной из более чем 30 тонн керамических изделий в Хошимине.

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт