SGGP 20/10/2023 19:13
Дипфейки больше не используются в развлекательных целях, а все чаще применяются киберпреступниками в качестве инструмента мошенничества… и количество мошеннических схем с использованием дипфейков будет расти, а сами схемы станут более разнообразными и изощренными.
| Компания «Лаборатория Касперского» прогнозирует рост числа мошеннических схем с использованием дипфейков, а также повышение их разнообразия и изощренности. |
После изучения форумов в даркнете, где часто действуют киберпреступники, компания «Лаборатория Касперского» пришла к выводу, что многие преступники используют дипфейки для мошенничества, и спрос на программное обеспечение для создания дипфейков, доступное в настоящее время на рынке, значительно превышает предложение.
Эксперты «Лаборатории Касперского» прогнозируют, что количество мошеннических схем с использованием дипфейков будет расти, а сами схемы станут более разнообразными и изощренными. Они варьируются от предоставления высококачественного, профессионально снятого видеоролика, имитирующего личность жертвы, до использования изображений знаменитостей в фейковых прямых трансляциях в социальных сетях с обещанием удвоить сумму, которую им отправили жертвы.
Несмотря на то, что преступники используют ИИ в злонамеренных целях, частные лица и компании по-прежнему могут применять его для выявления дипфейков и минимизации вероятности успешных мошеннических схем. Компания Kaspersky предлагает решения для защиты пользователей от мошенничества с использованием дипфейков:
Инструменты обнаружения контента с помощью ИИ: Эти программы обнаружения контента, созданные на основе искусственного интеллекта, используют передовые алгоритмы ИИ для анализа и определения степени редактирования изображений, видео и аудиофайлов.
Контент, созданный с помощью ИИ, снабжен водяными знаками: водяные знаки служат идентификационными метками на изображениях, видео и т. д., помогая авторам защитить авторские права на свои работы, созданные с помощью ИИ. Однако этот инструмент может стать оружием против дипфейков, поскольку он позволяет отследить происхождение платформы, создавшей ИИ.
Отслеживаемость контента: Поскольку ИИ собирает огромные объемы данных из различных источников для создания нового контента, этот метод направлен на отслеживание происхождения этого контента.
Проверка видео: это процесс подтверждения того, что видеоконтент не был изменен по сравнению с исходным состоянием. Именно этот процесс больше всего волнует создателей видео.
«Дипфейки стали кошмаром для женщин и общества. Киберпреступники». «В настоящее время они используют искусственный интеллект (ИИ) для наложения лиц жертв на порнографические изображения и видео, а также в пропагандистских кампаниях. Эти методы направлены на манипулирование общественным мнением путем распространения дезинформации или даже нанесения ущерба репутации организаций или отдельных лиц. Мы призываем общественность проявлять бдительность в отношении этой угрозы», — заявила г-жа Во Дуонг Ту Дьем, региональный директор Kaspersky Vietnam.
Источник






Комментарий (0)