Vietnam.vn - Nền tảng quảng bá Việt Nam

Как распознать мошеннические схемы, использующие технологию Deepfake.

VTC NewsVTC News21/10/2023


Технология дипфейков в настоящее время вызывает серьезную обеспокоенность, поскольку число мошеннических схем с использованием этой технологии продолжает расти.

После изучения форумов в даркнете, где часто действуют киберпреступники, эксперты по безопасности обнаружили, что так много преступников используют программное обеспечение Deepfake для мошенничества, что спрос значительно превышает предложение доступного на рынке программного обеспечения Deepfake.

Поскольку спрос превышает предложение, эксперты «Лаборатории Касперского» прогнозируют всплеск мошенничества с использованием дипфейков, причем методы будут становиться все более разнообразными и изощренными: от предоставления высококачественных видеороликов, имитирующих действия знаменитостей, до использования изображений знаменитостей в фейковых прямых трансляциях в социальных сетях с обещанием удвоить сумму, которую им отправили жертвы.

Согласно справочной информационной системе Regula, 37% компаний по всему миру сталкивались с мошенничеством с использованием Deepfake-атак, основанных на голосовом сообщении, а 29% стали жертвами мошенничества с использованием Deepfake-атак, основанных на видеосообщениях.

Эта технология стала угрозой для кибербезопасности Вьетнама, где киберпреступники часто используют поддельные видеозвонки, чтобы выдавать себя за других людей и занимать деньги у их родственников и друзей.

Видеозвонок, совершенный с помощью технологии Deepfake, может длиться всего минуту, что значительно затрудняет для жертв различение реального и поддельного звонка.

Дипфейки постепенно превращаются в «кошмар» среди изощренных онлайн-мошеннических схем.

Дипфейки постепенно превращаются в «кошмар» среди изощренных онлайн-мошеннических схем.

« Дипфейки стали кошмаром для женщин и общества. Киберпреступники используют искусственный интеллект (ИИ) для наложения лиц жертв на порнографические изображения и видео, а также в пропагандистских кампаниях».

«Цель этих форм манипуляции — контролировать общественное мнение путем распространения дезинформации, вплоть до нанесения ущерба репутации организаций или отдельных лиц», — заявила г-жа Во Дуонг Ту Дьем, региональный директор Kaspersky Vietnam.

Хотя ИИ используется преступниками в недобрых целях, частные лица и предприятия все еще могут применять искусственный интеллект для выявления дипфейков, снижая вероятность успешных мошеннических схем.

Таким образом, у пользователей будет несколько полезных решений для защиты от мошенничества, например, использование программного обеспечения для обнаружения контента, созданного с помощью искусственного интеллекта (которое использует сложные алгоритмы для анализа и определения степени редактирования изображений/видео/аудио).

Для создания дипфейк-видео теперь существуют инструменты, помогающие выявлять несоответствия между движениями рта и речью. Некоторые программы даже достаточно «мощны», чтобы обнаруживать аномальный кровоток под кожей, анализируя разрешение видео, поскольку при перекачивании крови сердцем вены в теле человека меняют цвет.

Кроме того, водяные знаки служат идентификационными метками на изображениях, видео и т. д., помогая авторам защищать авторские права на свои продукты, созданные с помощью ИИ. Эта функция может стать оружием против дипфейков, поскольку помогает отследить происхождение платформы, создавшей искусственный интеллект. Технически подкованные пользователи могут найти способы отследить источник контента, чтобы сравнить, как исходные данные были изменены ИИ.

В настоящее время некоторые новые технологии используют алгоритмы шифрования для вставки хеш-значений через заданные интервалы времени в видео. Если видео было отредактировано, хеш-значение изменится, что позволит пользователям проверить, не был ли контент изменен.

Ранее существовали некоторые рекомендации по поиску аномалий в видео, таких как искажение цвета, неестественные движения мышц, движения глаз и т. д. Однако по мере того, как искусственный интеллект становится все более интеллектуальным, эти значения не всегда дают точные результаты.

Процесс проверки достоверности видеороликов больше не основывается на визуальном осмотре, а требует применения технологических инструментов, предназначенных для предотвращения и выявления поддельного контента.

Кхань Линь



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Счастье «приемного брата» в море.

Счастье «приемного брата» в море.

Счастье во Вьетнаме

Счастье во Вьетнаме

Дуен Там

Дуен Там