Эти мошенники используют технологии искусственного интеллекта (ИИ), чтобы редактировать лица и тела обычных людей, превращая их в людей с ограниченными возможностями, а затем создавать печальные истории, чтобы продавать товары или призывать к поддержке. Их единственная цель — воспользоваться состраданием общества ради незаконной наживы.

Изощренные трюки
Типичным случаем, вызвавшим возмущение общественности, стал канал NL в TikTok, где женщина с ампутированными руками пыталась продавать товары онлайн, чтобы поддержать своих маленьких детей. В роликах женщина появлялась в простой комнате, в простой одежде, используя ампутированную руку для демонстрации товаров , вызывая у зрителей эмоциональную реакцию и сочувствие. Многие без колебаний подписывались на видео, делились им и даже заказывали товары, чтобы помочь матери справиться с трудностями. Однако, когда видео стали вирусными, интернет-сообщество поняло, что на самом деле это изображение обычной продавщицы, которую с помощью искусственного интеллекта превратили в настоящего человека с ограниченными возможностями.
Приём обращения к жалости стал ловушкой, из-за которой многие люди готовы переводить деньги или делать заказы, полагая, что помогают слабым и обездоленным. Г-н Данг Минь Куанг с улицы Нгок Лам в районе Бо Де ( Ханой ) поделился: «Моя мать поверила в ролик о женщине с ампутированной рукой, продающей товары, поэтому ей стало жаль её, и она заказала у неё несколько товаров. Когда она узнала правду, что инвалид — всего лишь образ, созданный искусственным интеллектом, она очень расстроилась и обиделась».
История матери Куанга не уникальна. Сотни других людей были обмануты подобным образом. Когда добротой злоупотребляют, люди постепенно теряют веру и не решаются на искренние призывы о помощи. И болезненное последствие заключается в том, что уязвимые люди действительно страдают. В своей личной странице в Facebook Нгуен Син поделился случаем госпожи Тран Тхи Нга (36 лет, провинция Фу Тхо ) – владелицы канала «Nga Tic Cuc», которая является инвалидом (в конце 2024 года из-за острого миокардита ей пришлось ампутировать обе руки и ноги, чтобы спасти свою жизнь). Многие знают её за то, что она постоянно вдохновляет людей своим оптимизмом и волей к жизни. Однако после того, как появились многочисленные случаи выдачи себя за людей с ограниченными возможностями с помощью ИИ, госпожу Нга заподозрили в использовании ИИ для выдачи себя за людей с ограниченными возможностями.
В недавних прямых трансляциях г-жа Нга не раз расстраивалась, когда некоторые пользователи социальных сетей неоднократно просили её «поднять руку» или «ползти», чтобы доказать, что она действительно инвалид. Эти необоснованные и жестокие просьбы глубоко ранили её. История «Active Nga» — душераздирающее свидетельство того, насколько пагубным может быть злоупотребление технологиями.
Навыки распознавания поддельного контента, созданные искусственным интеллектом
По данным Министерства общественной безопасности, в 2024 году во Вьетнаме было зарегистрировано более 6000 случаев онлайн-мошенничества, что, по оценкам, привело к убыткам в размере около 12 000 миллиардов донгов. Всего за 8 месяцев 2025 года было выявлено около 1500 случаев онлайн-мошенничества. Эта цифра наглядно отражает опасный уровень высокотехнологичной преступности в условиях, когда в стране насчитывается более 78 миллионов интернет-пользователей и 72 миллиона пользователей социальных сетей. Киберпространство становится благодатной почвой для всё более изощрённых мошеннических схем, где использование искусственного интеллекта для создания поддельного контента представляет собой наибольшую угрозу на сегодняшний день.
Столкнувшись с этой тревожной реальностью, власти и эксперты по кибербезопасности рекомендуют людям вооружиться знаниями и навыками распознавания фейкового контента. Заместитель секретаря Союза молодёжи полиции округа Лонгбьен (Ханой) Нгуен Нят Ха отметил, что людям следует регулярно отслеживать официальные источники информации, заблаговременно обновлять свои знания о технологиях и новых формах мошенничества. В частности, необходимо всегда проявлять бдительность и помнить об основных принципах: тщательно проверять источники информации, не предоставлять личную информацию непроверенным источникам, не переходить по подозрительным ссылкам и не переводить деньги на непроверенные счета.
По словам экспертов по кибербезопасности, чтобы распознать видео, созданные с помощью искусственного интеллекта, пользователям следует внимательно следить за деталями изображения, движениями лица, конечностей и звуками. Такие признаки, как пустой взгляд, неестественные движения, задержка речи или несинхронные движения губ, часто являются признаками использования технологии Deepfake.
Кроме того, проверка информации, публикуемой на канале, чтение комментариев и просмотр истории активности — это также простые способы оценить надёжность. Кроме того, пользователям следует выработать привычку сначала проверить, прежде чем поверить. Каким бы эмоциональным ни было видео, не стоит публиковать его или поддерживать в спешке.
Эксперты также призвали социальные сети ужесточить цензуру, выявлять контент, использующий ИИ для имитации людей с ограниченными возможностями, и строго пресекать нарушения. Властям также необходимо в ближайшее время разработать четкие правила использования изображений и контента, созданных с использованием ИИ, чтобы гарантировать, что технологии не станут инструментом неэтичного поведения злоумышленников.
Source: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Комментарий (0)