Vietnam.vn - Nền tảng quảng bá Việt Nam

Эксперт по безопасности показывает, как избежать мошенничества Deepfake

Báo Hà TĩnhBáo Hà Tĩnh29/03/2023


По словам экспертов по безопасности, мошенничество с использованием технологии Deepfake очень опасно, но у пользователей есть способы распознавать видеоролики с помощью этой технологии искусственного интеллекта, тем самым не попадаясь на уловки злоумышленников.

Риск волны мошенничества с использованием технологии Deepfake

В предупреждении, выпущенном 24 марта, полиция провинции Туенкуанг заявила, что в последнее время в киберпространстве появился очень сложный метод мошенничества и присвоения имущества. Это мошенники, использующие технологию Deepfake (технология, которая применяет искусственный интеллект - ИИ для создания аудио-, видео- и визуальных технологических продуктов, которые с очень высокой точностью подделывают реальных людей), чтобы совершать поддельные видеозвонки, чтобы занять деньги у родственников, выдавать себя за детей, обучающихся за границей, которые звонят своим родителям, чтобы попросить их перевести деньги для оплаты обучения, или могут создавать чрезвычайные ситуации, например, когда родственники попадают в аварию и им срочно нужны деньги на экстренное лечение...

В последние дни полиция в некоторых других населенных пунктах, таких как Ханой и Тхай Нгуен, продолжала предупреждать о мошеннических трюках с целью присвоения активов в Интернете с использованием технологии Deepfake.

Эксперт по безопасности показывает, как избежать мошенничества Deepfake

Полиция нескольких провинций и городов выпустила предупреждения о мошенничестве с использованием технологии Deepfake. (Иллюстрация фото: Интернет)

В своем выступлении на семинаре «Кибербезопасность в цифровом пространстве — тенденции и возможности», организованном Технологическим институтом почт и телекоммуникаций (PTIT) 27 марта, эксперт Нго Минь Хьеу, соучредитель проекта ChongLuaDao.vn и Threat Hunter Национального центра мониторинга кибербезопасности, сказал, что видео Deepfake появились во Вьетнаме недавно, но на самом деле эта технология мошенничества и подделки документов на основе искусственного интеллекта применяется международными преступными группировками уже около 2-3 лет.

Эксперт Нго Минь Хьеу также проанализировал, что в Интернете существует множество инструментов для поддержки субъектов в создании Deepfake-видео. В будущем, когда киберпреступники во Вьетнаме узнают больше о том, как красть видео и изображения, вырезать и вставлять их, а затем использовать онлайн-инструменты для создания Deepfake, тогда начнется волна мошенничества поколения 4.0, в результате чего многие люди, которых долгое время было трудно обмануть, станут жертвами.

«Люди среднего и старшего возраста наиболее уязвимы для мошенничества, поскольку они не осведомлены об информационной безопасности и технологиях и им трудно распознать этот тип изощренного мошенничества», — добавил эксперт Нго Минь Хьеу.

Эксперт по безопасности показывает, как избежать мошенничества Deepfake

Эксперт Нго Минь Хьеу рассказал студентам PTIT о формах мошенничества, включая мошенничество с использованием Deepfake.

Обсуждая эту проблему, технический директор компании NCS Ву Нгок Сон сказал, что приложения Deepfake становятся все более популярными, даже вызывая опасения по поводу потери контроля. Изначально эти приложения были созданы с целью «замены лиц», чтобы пользователи могли легко заменить свои лица и голоса на персонажей известных фильмов. Это можно считать следующим шагом тренда редактирования фотографий и юмористического дубляжа для клипов, вызвавшего в прошлом ажиотаж.

Однако мошенники воспользовались приложениями Deepfake для создания клипов с мошенническим и выдающим себя контентом. Многие люди потеряли деньги, потому что думали, что их родственники, коллеги и руководители звонят им, чтобы попросить перевести им деньги. Эта технология используется и в более плохих целях, поэтому в последнее время при упоминании Deepfake люди часто думают о плохих инструментах.

Как избежать мошенничества с использованием технологии Deepfake

Что касается профилактики, эксперт Ву Нгок Сон проанализировал, что, поскольку вычислительная мощность приложений Deepfake на самом деле не стала идеальной, клипы, созданные с помощью этой технологии, часто имеют небольшую емкость, короткую продолжительность и низкое качество звука и изображения. Наиболее заметным является то, что лицо довольно жесткое и менее эмоциональное. Тело персонажа в Deepfake также будет меньше двигаться, особенно меньше лицом вверх или лицом вниз по сравнению с обычными клипами, и не будет никаких действий потирания лица или закрывания лица, потому что ИИ будет обрабатывать ошибки, когда лицо частично закрыто. Поэтому, если вы будете внимательны, вы можете это обнаружить.

«Пользователям не следует доверять коротким, некачественным, размытым, нечетким клипам, в которых мало выражений лиц, мало движений тела, лица не повернуты вбок, голоса не плавные или слишком монотонные, а также клипам без пауз», — рекомендует эксперт Ву Нгок Сон.

Эксперт из компании NCS также сказал, что самое главное — пользователям нужно быть бдительными. В частности, не доверяйте, если вы получаете короткие клипы или видеозвонки с плохим качеством изображения или звука; проверьте еще раз, позвонив напрямую с обычного телефона; попросите звонящего положить руку на лицо или повернуть налево, повернуть направо; разговаривайте как можно больше с звонящим, чтобы убедиться, что звонок настоящий, а не разговор по заранее записанному видео. В частности, пользователи не должны переводить деньги или отправлять информацию на странные адреса или счета.

Эксперт Нго Минь Хьеу, разделяющий это мнение, рекомендует пользователям быть бдительными и внимательными, чтобы избежать мошенничества. Когда кто-то в социальных сетях, в вашем списке друзей, внезапно просит одолжить денег или присылает странную ссылку, не торопитесь, а сохраняйте спокойствие, проверяйте и проверяйте еще раз.

«Пользователи могут заранее пройти аутентификацию, позвонив напрямую или по FaceTime в течение как минимум 1 минуты, а затем сделать вид, что задаете личные вопросы, которые знаете только вы и другой человек. Потому что Deepfake не сможет подделать реальный разговор в реальном времени с высокой точностью», — посоветовал эксперт Нго Минь Хьеу.

По данным ВНН



Источник

Комментарий (0)

No data
No data

Та же категория

Тушеные свиные ножки с поддельным собачьим мясом — особое блюдо северян
Мирное утро на S-образной полосе земли
Взрываются фейерверки, туризм набирает обороты, Дананг выигрывает летом 2025 года
Поучаствуйте в ночной ловле кальмаров и наблюдении за морскими звездами на жемчужном острове Фукуок

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт