Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake нанес ущерб на сумму более 200 миллионов долларов за первые 3 месяца 2025 года, жертвой может стать каждый

Согласно шокирующему заявлению Resemble AI, за первые три месяца 2025 года мошенничество с использованием дипфейков привело к мировым потерям более 200 миллионов долларов США.

Báo Tuổi TrẻBáo Tuổi Trẻ19/04/2025


дипфейк - Фото 1.

Поддельное видео выступления президента Украины Владимира Зеленского с использованием технологии deepfake - Фото: AFP

Издание Variety сообщило в отчете Resemble AI за первый квартал 2025 года, что сумма ущерба, причиненного дипфейками, превысила 200 миллионов долларов, в основном за счет финансового мошенничества, политических манипуляций, вымогательства и распространения конфиденциального контента, созданного ИИ в целях получения прибыли.

В отчете это описывается как «обостряющийся кризис» со все более изощренными атаками, выходящими за рамки возможностей обнаружения обычными пользователями.

Кто является жертвами дипфейка?

Изначально дипфейки появились как технологическая развлекательная игра. Однако всего за несколько лет эта технология превратилась в мощный инструмент в кампаниях по трансграничному мошенничеству.

По данным Resemble AI, в настоящее время дипфейки в основном используются в видео (46%), за которыми следуют изображения (32%) и аудио (22%).

Тревожно то, что с помощью всего лишь 3–5 секунд аудиозаписи злоумышленники могут создать поддельный голос, достаточно мощный, чтобы обмануть родственников, партнеров или даже системы автоматической проверки.

Ущерб от Deepfake за первые 3 месяца 2025 года составил более 200 миллионов долларов США, жертвой может стать каждый - Фото 2.

В мире Корея, безусловно, является одним из мест, где эта ситуация наиболее сложна, поскольку существует множество чат-групп, специализирующихся на спаривании идолов с порнографическим контентом для продажи - Фото: X

Мало того, 68% современных поддельных продуктов оцениваются как «практически неотличимые от настоящего контента», что делает их обнаружение крайне сложным даже для технических экспертов.

Сочетание изображений и звука в синхронизированном видео делает имитацию настолько правдоподобной, что реальным людям трудно понять, что их эксплуатируют.

В отчете говорится, что 41% жертв были публичными деятелями, в основном политиками и знаменитостями, а остальные 34% — обычными гражданами.

Риск дипфейков теперь не ограничивается знаменитостями, а распространяется на все слои общества. Мишенью также становятся финансовые учреждения, предприятия и государственные учреждения.

На Северную Америку пришлось 38% случаев, большинство из которых касались политических деятелей. На Азию приходится 27%, на Европу — 21%.

63% атак имели трансграничный элемент, что доказывает, что дипфейки — это не просто внутренняя проблема, а глобальная угроза.

Мошенничество становится все более изощренным во всем мире

Среди мошеннических схем с использованием дипфейков наиболее распространенной формой является контент деликатного характера, наносящий серьезный ущерб репутации и духу жертвы.

Далее следуют финансовые мошенничества, такие как выдача себя за начальника для запроса денежных переводов, выдача себя за родственника, нуждающегося в срочной помощи, или даже инсценировка видеозвонка для проверки поддельной личности.

дипфейк - Фото 3.

С другой стороны, приложения против дипфейков также разрабатываются все более активно, на фото Loti AI, который только что успешно собрал более 16 миллионов долларов США - Фото: Variety

Еще одной сферой, сильно пострадавшей от дипфейков, стала политика: видеоролики лидеров монтируются, чтобы сбить с толку общественное мнение или манипулировать информацией во время предвыборного сезона.

Кроме того, эта технология также усиливает фейковые новости и дезинформацию, ускоряя распространение контента за счет его убедительного внешнего вида.

«Борьба с дипфейками требует многоуровневого и глобального ответа», — подчеркнул представитель Resemble AI в своем заявлении.

В частности, на первый план должны выйти технологические решения, в том числе: разработка более эффективных систем обнаружения дипфейков, стандартизация протоколов аутентификации контента с использованием водяных знаков и отслеживаемых механизмов цифровой верификации.

В докладе также содержится призыв к правительствам активизировать усилия по созданию единой правовой базы, четко определить вредоносные дипфейки, привлечь к ответственности платформы, на которых они размещены, и ввести эффективные санкции.

Повышение осведомленности общественности, особенно посредством цифровой грамотности и медиаобразования, также рассматривается как ключ к лучшей общественной защите.

дипфейк - Фото 4.

Во Вьетнаме, хотя методы не столь изощренны, в эту ловушку попалось бесчисленное множество жертв. Департамент кибербезопасности и предотвращения высокотехнологичных преступлений постоянно предупреждает - Фото: PA05

Во Вьетнаме также наблюдается значительный рост случаев мошенничества с использованием deepfake, при этом многие ситуации вызывают замешательство в интернет-сообществе.

Некоторые жертвы заявили, что даже получали видеозвонки с голосами и манерой речи, идентичными голосам и манере речи их родственников, что не оставило их ни о чем подозревать.

Завоевав доверие, мошенник продолжает просить о «срочной помощи», например, перевести деньги, предоставить коды аутентификации или одолжить банковские счета.

Столкнувшись с этой ситуацией, эксперты по технологиям предупреждают: дипфейк становится чрезвычайно опасным оружием мошенничества, и Вьетнаму необходимо в ближайшее время стандартизировать правовую базу для защиты пользователей.


ПодробнееВернуться на страницу темы

ТО КУОНГ

Источник: https://tuoitre.vn/deepfake-gay-thiet-hai-hon-200-trieu-usd-3-thang-dau-nam-2025-ai-cung-co-the-la-nan-nhan-20250419185910057.htm


Комментарий (0)

No data
No data

Та же категория

Дикая природа острова Катба
Долгое путешествие по Каменному плато
Кат Ба - Симфония лета
Найдите свой собственный Северо-Запад

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт