Vietnam.vn - Nền tảng quảng bá Việt Nam

«Лаборатория Касперского» рассказывает, как распознать мошенничество с дипфейками

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng20/10/2023


SGGPO 20 октября 2023 г. 19:13

Дипфейк больше не используется в развлекательных целях, а постепенно становится инструментом мошенничества со стороны киберпреступников... и мошенничество с использованием дипфейка будет становиться все более разнообразным и изощренным.

По мнению Касперского, количество случаев мошенничества с использованием дипфейков будет увеличиваться, приобретая все более разнообразные и изощренные формы.
По мнению Касперского, количество случаев мошенничества с использованием дипфейков будет увеличиваться, приобретая все более разнообразные и изощренные формы.

После исследования форумов даркнета, где часто действуют киберпреступники, Касперский пришел к выводу, что многие преступники используют дипфейки в мошеннических целях, причем спрос на них значительно превышает предложение программного обеспечения для создания дипфейков, представленного в настоящее время на рынке.

Эксперты «Лаборатории Касперского» прогнозируют, что дипфейковые мошенничества станут более разнообразными и изощренными: от предложения высококачественного видео с имитацией другого человека и полным спектром услуг по его производству до использования изображений знаменитостей в поддельных прямых трансляциях в социальных сетях с обещанием удвоить сумму, отправленную жертвой.

Несмотря на то, что ИИ используется преступниками в вредоносных целях, частные лица и компании по-прежнему могут использовать ИИ для выявления дипфейков и снижения вероятности успеха мошенничества. «Лаборатория Касперского» предлагает пользователям решения для защиты от дипфейков:

Инструменты обнаружения контента на базе ИИ: программное обеспечение для обнаружения контента на базе ИИ использует передовые алгоритмы ИИ для анализа и определения уровня манипуляции файлами изображений, видео и аудио.

Контент, созданный с помощью ИИ, помечен водяными знаками: Водяные знаки служат идентификационными знаками на изображениях, видео и т. д., помогая авторам защищать авторские права на работы с ИИ. Однако этот инструмент может стать оружием против дипфейков, поскольку позволяет отследить происхождение платформы, создавшей ИИ.

Происхождение контента: поскольку ИИ собирает большие объемы данных из различных источников для создания нового контента, этот подход направлен на отслеживание происхождения этого контента.

Аутентификация видео: это процесс проверки того, что видеоконтент не был изменён с момента его создания. Этот процесс вызывает наибольшие опасения у создателей видео.

«Дипфейк стал кошмаром для женщин и общества. Киберпреступность В настоящее время мошенники используют искусственный интеллект (ИИ) для вставки лиц жертв на порнографические фотографии и видео, а также в пропагандистских кампаниях. Цель этих методов — манипулировать общественным мнением, распространяя ложную информацию или даже нанося ущерб репутации организаций или отдельных лиц. Мы призываем общественность быть более бдительными в отношении этой угрозы», — заявила г-жа Во Дуонг Ту Дьем, директор представительства Kaspersky во Вьетнаме.



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Хошимин привлекает инвестиции от предприятий с прямыми иностранными инвестициями через новые возможности
Историческое наводнение в Хойане, вид с военного самолета Министерства национальной обороны
«Великое наводнение» на реке Тху Бон превысило историческое наводнение 1964 года на 0,14 м.
Каменное плато Донгван — редкий в мире «живой геологический музей»

Тот же автор

Наследство

Фигура

Бизнес

Полюбуйтесь «Бухтой Халонг на суше» — она вошла в топ самых популярных направлений в мире.

Текущие события

Политическая система

Местный

Продукт