GReAT (Global Research & Analysis Team) сообщила, что начальная стоимость этих сервисов deepfake (технологии имитации изображений человеческого лица) составляет всего около 50 долларов США (эквивалентно 1,3 миллиона донгов) за поддельные видео и 30 долларов США (около 800 000 донгов) за поддельные голосовые сообщения, что значительно ниже ранее зафиксированных «Лабораторией Касперского» цен в 300–20 000 долларов США за минуту. Эта существенная разница свидетельствует о том, что технология deepfake стала более доступной, чем когда-либо, что открывает путь для множества рисков использования в целях мошенничества, кражи личных данных или кибератак.

Реклама в даркнете описывает целый ряд тревожных функций, включая подмену лиц в реальном времени во время видеозвонков, использование поддельных лиц для обхода аутентификации и подделку изображений с камер на онлайн-платформах.
Некоторые сайты также продают инструменты для клонирования голоса, которые могут корректировать высоту голоса, тон, эмоции и даже синхронизировать движения губ с диалогами на разных языках. Однако эксперты предупреждают, что многие из этих объявлений — просто мошенничество, целью которого является кража денег.
Киберпреступники активно экспериментируют с искусственным интеллектом и внедряют его в свои операции, заявил Дмитрий Галов, руководитель команды GReAT «Лаборатории Касперского» в России и СНГ. Некоторые платформы даже разрабатывают собственные вредоносные большие языковые модели (LLM), которые могут запускаться непосредственно на устройстве, что позволяет злоумышленникам расширять возможности своих атак, не полагаясь на общедоступные модели.
Хотя эти технологии не создали совершенно новую киберугрозу, они сделали хакеров более опасными и непредсказуемыми. В связи с этим «Лаборатория Касперского» рекомендует экспертам по кибербезопасности использовать возможности искусственного интеллекта для повышения производительности и улучшения защиты от новой волны атак, вызванных дипфейками и вредоносными технологиями искусственного интеллекта.
Чтобы защититься от дипфейковых угроз, «Лаборатория Касперского» рекомендует:
- Предприятия полностью внедряют меры кибербезопасности: не ограничиваясь установкой защитных решений, но и нуждаясь в команде высококвалифицированных ИТ-специалистов.
- Убедитесь, что сотрудники понимают, что такое дипфейки и каковы опасности этой технологии, а также регулярно организуйте обучающие курсы, чтобы помочь сотрудникам научиться их распознавать.
- Обучите персонал распознавать типичные признаки дипфейка: прерывистое, неплавное движение, непоследовательное освещение между кадрами, неестественные оттенки кожи, необычное или редкое моргание, искаженные изображения, видео, намеренно снятые в низком качестве или при плохом освещении.
Источник: https://nld.com.vn/dich-vu-deepfake-duoc-rao-ban-re-hon-400-lan-lam-gi-de-tu-bao-ve-196251009170834853.htm
Комментарий (0)