Vietnam.vn - Nền tảng quảng bá Việt Nam

Сервис Deepfake «продаётся» в 400 раз дешевле, что делать, чтобы защитить себя?

(NLDO) - Команда GReAT компании «Лаборатория Касперского» только что обнаружила в даркнете рекламу, предлагающую услуги по созданию поддельных видео и аудио в режиме реального времени.

Người Lao ĐộngNgười Lao Động09/10/2025

GReAT (Global Research & Analysis Team) сообщила, что начальная стоимость этих сервисов deepfake (технологии имитации изображений человеческого лица) составляет всего около 50 долларов США (эквивалентно 1,3 миллиона донгов) за поддельные видео и 30 долларов США (около 800 000 донгов) за поддельные голосовые сообщения, что значительно ниже ранее зафиксированных «Лабораторией Касперского» цен в 300–20 000 долларов США за минуту. Эта существенная разница свидетельствует о том, что технология deepfake стала более доступной, чем когда-либо, что открывает путь для множества рисков использования в целях мошенничества, кражи личных данных или кибератак.

Dịch vụ deepfake được “rao bán” rẻ hơn 400 lần, làm gì để tự bảo vệ? - Ảnh 1.

Реклама в даркнете описывает целый ряд тревожных функций, включая подмену лиц в реальном времени во время видеозвонков, использование поддельных лиц для обхода аутентификации и подделку изображений с камер на онлайн-платформах.

Некоторые сайты также продают инструменты для клонирования голоса, которые могут корректировать высоту голоса, тон, эмоции и даже синхронизировать движения губ с диалогами на разных языках. Однако эксперты предупреждают, что многие из этих объявлений — просто мошенничество, целью которого является кража денег.

Киберпреступники активно экспериментируют с искусственным интеллектом и внедряют его в свои операции, заявил Дмитрий Галов, руководитель команды GReAT «Лаборатории Касперского» в России и СНГ. Некоторые платформы даже разрабатывают собственные вредоносные большие языковые модели (LLM), которые могут запускаться непосредственно на устройстве, что позволяет злоумышленникам расширять возможности своих атак, не полагаясь на общедоступные модели.

Хотя эти технологии не создали совершенно новую киберугрозу, они сделали хакеров более опасными и непредсказуемыми. В связи с этим «Лаборатория Касперского» рекомендует экспертам по кибербезопасности использовать возможности искусственного интеллекта для повышения производительности и улучшения защиты от новой волны атак, вызванных дипфейками и вредоносными технологиями искусственного интеллекта.

Чтобы защититься от дипфейковых угроз, «Лаборатория Касперского» рекомендует:

- Предприятия полностью внедряют меры кибербезопасности: не ограничиваясь установкой защитных решений, но и нуждаясь в команде высококвалифицированных ИТ-специалистов.

- Убедитесь, что сотрудники понимают, что такое дипфейки и каковы опасности этой технологии, а также регулярно организуйте обучающие курсы, чтобы помочь сотрудникам научиться их распознавать.

- Обучите персонал распознавать типичные признаки дипфейка: прерывистое, неплавное движение, непоследовательное освещение между кадрами, неестественные оттенки кожи, необычное или редкое моргание, искаженные изображения, видео, намеренно снятые в низком качестве или при плохом освещении.

Источник: https://nld.com.vn/dich-vu-deepfake-duoc-rao-ban-re-hon-400-lan-lam-gi-de-tu-bao-ve-196251009170834853.htm


Комментарий (0)

No data
No data

Та же тема

Та же категория

71-я годовщина Дня освобождения столицы — пробуждение духа Ханоя и его решительного вступления в новую эпоху
Затопленные районы Лангшона, вид с вертолета
Изображение темных облаков, «готовых обрушиться» на Ханой
Лил дождь, улицы превратились в реки, жители Ханоя вывели лодки на улицы.

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Текущие события

Политическая система

Местный

Продукт