SGGPO 20 октября 2023 г. 19:13
Дипфейки больше не используются в развлекательных целях, а постепенно становятся инструментом мошенничества в руках киберпреступников... и мошенничество с использованием дипфейков будет становиться все более разнообразным и изощренным.
Касперский прогнозирует, что дипфейковые мошенничества будут становиться все более разнообразными и изощренными. |
После исследования форумов даркнета, где часто действуют киберпреступники, Касперский пришел к выводу, что многие преступники используют дипфейки в мошеннических целях, причем спрос на них значительно превышает предложение программного обеспечения для создания дипфейков, представленного в настоящее время на рынке.
Эксперты «Лаборатории Касперского» прогнозируют, что дипфейковые мошенничества станут более разнообразными и изощренными: от предложения высококачественного видео с имитацией другого человека и полным спектром услуг по его производству до использования изображений знаменитостей в поддельных прямых трансляциях в социальных сетях с обещанием удвоить сумму, отправленную жертвой.
Несмотря на то, что преступники злоупотребляют искусственным интеллектом в своих вредоносных целях, частные лица и компании по-прежнему могут использовать ИИ для выявления дипфейков и снижения вероятности успеха мошенничества. «Лаборатория Касперского» предлагает пользователям решения для защиты от дипфейков:
Инструменты обнаружения контента на базе ИИ: программное обеспечение для обнаружения контента на базе ИИ использует передовые алгоритмы ИИ для анализа и определения уровня манипуляции файлами изображений, видео и аудио.
Контент, созданный с помощью ИИ, помечен водяными знаками: Водяные знаки служат идентификационными знаками на изображениях, видео и т. д., помогая авторам защищать авторские права на работы с ИИ. Однако этот инструмент может стать оружием против дипфейков, поскольку позволяет отследить происхождение платформы, создавшей ИИ.
Происхождение контента: поскольку ИИ собирает большие объемы данных из различных источников для создания нового контента, этот подход направлен на отслеживание происхождения этого контента.
Аутентификация видео: это процесс проверки того, что видеоконтент не был изменён с момента его создания. Этот процесс вызывает наибольшие опасения у создателей видео.
«Дипфейк стал кошмаром для женщин и общества. Киберпреступность «В настоящее время мошенники используют искусственный интеллект (ИИ) для наложения лиц жертв на порнографические фотографии и видео, а также в пропагандистских кампаниях. Эти методы направлены на манипулирование общественным мнением путем распространения ложной информации или даже нанесения ущерба репутации организаций или отдельных лиц. Мы призываем общественность быть более бдительными в отношении этой угрозы», — заявила г-жа Во Дуонг Ту Дьем, директор представительства Kaspersky во Вьетнаме.
Источник
Комментарий (0)