SGGPO 20 октября 2023 г. 19:13
Дипфейк больше не используется в развлекательных целях, а постепенно становится инструментом мошенничества со стороны киберпреступников... и мошенничество с использованием дипфейка будет становиться все более разнообразным и изощренным.
| По мнению Касперского, количество случаев мошенничества с использованием дипфейков будет увеличиваться, приобретая все более разнообразные и изощренные формы. |
После исследования форумов даркнета, где часто действуют киберпреступники, Касперский пришел к выводу, что многие преступники используют дипфейки в мошеннических целях, причем спрос на них значительно превышает предложение программного обеспечения для создания дипфейков, представленного в настоящее время на рынке.
Эксперты «Лаборатории Касперского» прогнозируют, что дипфейковые мошенничества станут более разнообразными и изощренными: от предложения высококачественного видео с имитацией другого человека и полным спектром услуг по его производству до использования изображений знаменитостей в поддельных прямых трансляциях в социальных сетях с обещанием удвоить сумму, отправленную жертвой.
Несмотря на то, что ИИ используется преступниками в вредоносных целях, частные лица и компании по-прежнему могут использовать ИИ для выявления дипфейков и снижения вероятности успеха мошенничества. «Лаборатория Касперского» предлагает пользователям решения для защиты от дипфейков:
Инструменты обнаружения контента на базе ИИ: программное обеспечение для обнаружения контента на базе ИИ использует передовые алгоритмы ИИ для анализа и определения уровня манипуляции файлами изображений, видео и аудио.
Контент, созданный с помощью ИИ, помечен водяными знаками: Водяные знаки служат идентификационными знаками на изображениях, видео и т. д., помогая авторам защищать авторские права на работы с ИИ. Однако этот инструмент может стать оружием против дипфейков, поскольку позволяет отследить происхождение платформы, создавшей ИИ.
Происхождение контента: поскольку ИИ собирает большие объемы данных из различных источников для создания нового контента, этот подход направлен на отслеживание происхождения этого контента.
Аутентификация видео: это процесс проверки того, что видеоконтент не был изменён с момента его создания. Этот процесс вызывает наибольшие опасения у создателей видео.
«Дипфейк стал кошмаром для женщин и общества. Киберпреступность В настоящее время мошенники используют искусственный интеллект (ИИ) для вставки лиц жертв на порнографические фотографии и видео, а также в пропагандистских кампаниях. Цель этих методов — манипулировать общественным мнением, распространяя ложную информацию или даже нанося ущерб репутации организаций или отдельных лиц. Мы призываем общественность быть более бдительными в отношении этой угрозы», — заявила г-жа Во Дуонг Ту Дьем, директор представительства Kaspersky во Вьетнаме.
Источник






Комментарий (0)