Vietnam.vn - Nền tảng quảng bá Việt Nam

Как распознать мошенничество Deepfake

VTC NewsVTC News22/10/2023


Дипфейк в настоящее время является серьезной проблемой, поскольку количество мошеннических схем с использованием технологий продолжает расти.

Проведя исследование на форумах Darknet, где часто орудуют киберпреступники, эксперты по безопасности обнаружили, что преступников, использующих Deepfake для мошенничества, так много, что спрос на него значительно превышает предложение программного обеспечения Deepfake, представленного на рынке в настоящее время.

Эксперты «Лаборатории Касперского» прогнозируют, что по мере превышения спроса над предложением количество мошеннических схем Deepfake будет расти, при этом их формы будут становиться все более разнообразными и изощренными: от предоставления высококачественного видео с имитацией другого человека до использования изображений знаменитостей в поддельных прямых трансляциях в социальных сетях с обещанием выплаты в два раза большей суммы, чем отправила жертва.

По данным информационно-справочной системы Regula, 37% предприятий по всему миру сталкивались с мошенничеством с использованием Deepfake-голоса, а 29% стали жертвами Deepfake-видео.

Эта технология стала угрозой кибербезопасности во Вьетнаме, где киберпреступники часто используют поддельные видеозвонки, чтобы выдавать себя за других людей и занимать деньги у их родственников и друзей.

Видеозвонок Deepfake может длиться всего минуту, из-за чего жертве сложно отличить настоящий звонок от поддельного.

Дипфейк постепенно становится «кошмаром» в изощренных интернет-мошенничествах.

Дипфейк постепенно становится «кошмаром» в изощренных интернет-мошенничествах.

« Дипфейки становятся кошмаром для женщин и общества. Киберпреступники используют искусственный интеллект (ИИ) для наложения лиц жертв на порнографические фотографии и видео, а также в пропагандистских кампаниях.

«Эти формы направлены на манипулирование общественным мнением путем распространения ложной информации и даже нанесение ущерба репутации организаций или отдельных лиц», — заявила г-жа Во Дуонг Ту Дьем, региональный директор «Лаборатории Касперского» во Вьетнаме.

Хотя преступники используют искусственный интеллект в злонамеренных целях, частные лица и предприятия по-прежнему могут использовать сам искусственный интеллект для выявления дипфейков, снижая вероятность успеха мошенничества.

Соответственно, пользователи получат ряд полезных решений для защиты от мошенничества, таких как использование программного обеспечения для обнаружения контента, созданного на основе искусственного интеллекта (использующего передовые алгоритмы для анализа и определения уровня редактирования изображений/видео/аудио).

Для видео Deepfake теперь есть инструменты, которые могут помочь обнаружить несоответствующие движения рта и речи. Некоторые программы настолько мощны, что могут обнаружить аномальный кровоток под кожей, анализируя разрешение видео, поскольку, когда сердце перекачивает кровь, вены человека меняют цвет.

Кроме того, существует также водяной знак, который действует как идентификационный знак на изображениях, видео и т. д., помогая авторам защищать авторские права на продукты ИИ. Эта функция может стать оружием против Deepfakes, поскольку она помогает отследить происхождение платформы, создавшей искусственный интеллект. Технически подкованные пользователи могут обратиться к исходному контенту, чтобы увидеть, как исходные данные были изменены ИИ.

В настоящее время некоторые новые технологии используют криптографические алгоритмы для вставки хеш-значений в видео через заданные интервалы времени. Если видео было отредактировано, значение хэша изменится, и пользователь сможет проверить, был ли контент подделан или нет.

В прошлом уже существовали некоторые руководства по поиску аномалий в видео, таких как отклонения цвета, неестественные движения мышц, движения глаз и т. д. Однако ИИ становится умнее, поэтому эти значения не всегда дают правильные результаты.

Процесс проверки достоверности видео больше не основан на визуальном осмотре, а требует технологических инструментов, созданных с целью предотвращения и обнаружения поддельного контента.

Кхань Линь



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Российский военный парад: «Абсолютно кинематографические» ракурсы, которые ошеломили зрителей
Посмотрите впечатляющее выступление российских истребителей на праздновании 80-летия Дня Победы
Кук Фыонг в сезон бабочек – когда старый лес превращается в волшебную страну
Mai Chau трогает сердце мира

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт