При начальной стоимости всего около 1,3 млн донгов поддельные инструменты, такие как трансплантация лица и имитация голоса, вызывают опасения относительно риска мошенничества, поддельных личных изображений и последствий для кибербезопасности.
(Иллюстрация)
Низкие цены в даркнете, скрытая большая опасность
Глобальная исследовательская и аналитическая группа «Лаборатории Касперского» (GReAT) недавно опубликовала результаты, свидетельствующие о том, что на даркнет-рынках появилось множество объявлений, предлагающих услуги по созданию фейковых видео и аудио в режиме реального времени. Начальные цены за поддельные голосовые сообщения составляют около 50 долларов США (около 1,3 миллиона донгов) и 30 долларов США (около 800 000 донгов) в зависимости от сложности и длины контента.
Раньше «легитимные» услуги deepfake стоили от 300 до 20 000 долларов в минуту.
Резкое падение цены — в 400 раз ниже предыдущего популярного уровня — еще больше увеличивает риск эксплуатации с целью совершения противоправных действий.
Рекламные фишки и «приманки» для негодяев
Реклама теперь выходит за рамки простых фейковых видеороликов и включает в себя подмену лиц в реальном времени во время видеозвонков, подмену камер устройств или «замену» лиц для обхода аутентификации. Реклама также рекламирует возможность синхронизации выражений лица с закадровым голосом и даже поддержку нескольких языков.
Кроме того, продаются услуги «клонирования голоса», позволяющие имитировать голос с возможностью регулировки тембра и тональности для выражения различных эмоций. Однако многие эксперты подозревают, что это на самом деле реклама, направленная на «заманивание» клиентов : покупателей могут обманным путём заставить перевести деньги авансом, но не получить обещанный качественный продукт.
«Необходимость использования этого инструмента также возрастает»
«Мы не только увидели рекламу, предлагающую deepfake-как-услугу, но и заметили рост спроса на эти инструменты», — сказал Дмитрий Галов , руководитель команды GReAT «Лаборатории Касперского» (Россия и СНГ) .
По его словам, киберпреступники экспериментируют с искусственным интеллектом и внедряют его в свои стратегии атак, а некоторые платформы даже разрабатывают собственные «вредоносные» LLM, отдельные от общедоступных моделей и способные запускаться непосредственно на устройствах злоумышленников.
Хотя дипфейки пока нельзя считать совершенно новой киберугрозой, эта технология может сделать атаки более изощренными и трудными для обнаружения.
Рекомендации и как распознать дипфейк
«Лаборатория Касперского» рекомендует компаниям и организациям внедрить комплексные меры кибербезопасности, не ограничиваясь только установкой защитного программного обеспечения, но и создав команду ИТ-экспертов, обладающих навыками обнаружения и реагирования.
Кроме того, сотрудники организации должны быть обучены распознавать необычные признаки на видео или аудио, которые могут быть результатом использования технологии дипфейка. В таких видео часто наблюдаются прерывистые и неестественные движения, неравномерное освещение или оттенки кожи между кадрами, персонажи с необычной частотой моргания или практически без моргания, а также искажённые или слегка деформированные лица.
Кроме того, качество изображения часто оставляет желать лучшего, а кадры нестабильны, особенно при слабом освещении, что снижает реалистичность видео в целом. Бдительность в отношении дипфейковых угроз и повышение осведомленности о них рассматриваются как важный первый шаг к минимизации ущерба от изощренных мошеннических схем в эпоху искусственного интеллекта.
Источник: https://doanhnghiepvn.vn/chuyen-doi-so/rui-ro-tu-deepfake-gia-re-tu-quang-cao-darknet-den-loi-keu-goi-canh-giac/20251016105304840
Комментарий (0)