Аутентификация по лицу очень популярна во Вьетнаме. Фото: QUANG DINH
Лица, голоса и даже живые видеозвонки ... подделываются настолько убедительно, что с их помощью можно обойти традиционные меры безопасности.
Г-н МИЛКО РАДОТИЧ (вице-президент, отвечающий за Азиатско- Тихоокеанский регион iProov)
Генеративный искусственный интеллект (ИИ) и дипфейки порождают не только дезинформацию, но и мошенничество. Эти инструменты позволяют преступникам создавать тысячи убедительных поддельных личностей в больших масштабах, что позволяет им совершать одни и те же мошеннические действия многократно.
Такое мнение высказал в интервью Tuoi Tre г-н Милко Радотич, вице-президент по Азиатско- Тихоокеанскому региону компании iProov, одного из ведущих мировых поставщиков технологий биометрической аутентификации.
* С учетом развития искусственного интеллекта и его приложений, с какими, по вашему мнению, наиболее пугающими угрозами столкнутся вьетнамские пользователи в киберпространстве в ближайшем будущем?
- Один из самых серьёзных рисков, с которыми Вьетнаму предстоит столкнуться в ближайшем будущем, — это мошенничество с использованием синтетических личных данных. В отличие от традиционной кражи личных данных, когда преступники похищают информацию у реального человека, теперь мошенники используют фрагменты данных, такие как имя, адрес или номер удостоверения личности, для создания совершенно новой, несуществующей личности.
Эти поддельные личности затем могут быть использованы для открытия счетов, подачи заявок на кредит или перевода денег за границу. Эта угроза особенно опасна тем, что её невероятно сложно обнаружить. Поскольку личность «частично настоящая», а «частично поддельная», она может обойти многие проверки, используемые банками и платформами.
Затем наблюдается развитие продвинутых технологий deepfake, которые настолько убедительно подделывают лица, голоса и даже видеозвонки в прямом эфире, что они позволяют обходить традиционные меры безопасности.
Г-н Милко Радотич, вице-президент Азиатско-Тихоокеанского региона iProov
* Могут ли пользователи отличить, что контент (фото, видео, статья...) сгенерирован ИИ?
— Реальность такова, что большинство людей не могут этого сделать. Наше исследование iProov показало, что 99,9% участников не смогли распознать дипфейки.
Даже передовые инструменты обнаружения дают сбои. При тестировании в реальных условиях автоматизированные инструменты обнаружения дипфейков оказываются почти вдвое менее точными, чем в лабораторных условиях.
Например, инструмент может распознать изображение, сгенерированное ИИ, но полностью пропустить видео с подменой лиц. Аналогично, системы, обученные на известных публичных личностях, могут хорошо работать с политиками или знаменитостями, но испытывать трудности с обычными людьми, не имеющими значительного цифрового следа.
Это настоящая гонка вооружений, поскольку как только уровень обнаружения улучшается, мошенники тут же адаптируются.
* Как мы можем улучшить нашу способность распознавать и защищаться от угроз со стороны искусственного интеллекта и дипфейков, сэр?
Для вьетнамских пользователей лучшая защита — здоровый скептицизм. Если вы чувствуете, что что-то не так, даже во время видеозвонка с начальником, банком или семьёй, остановите его и проверьте данные через другой надёжный канал. Не полагайтесь исключительно на то, что видите или слышите на экране.
Ответственность за обеспечение более надежной защиты должна лежать не на пользователе, а на организации. Например, банки и платформы переходят на биометрическую аутентификацию с функцией определения «живого» человека, чтобы убедиться, что человек реальный, что он именно тот и физически присутствует в данный момент.
Эти меры предосторожности помогают предотвратить широкомасштабный успех мошенничества с использованием дипфейков.
* Применение биометрической аутентификации, широко применяемой во Вьетнаме, также является эффективным решением защиты, сэр?
Можно сказать, что Вьетнам добился значительных успехов в применении биометрической аутентификации: проверено более 120 миллионов персональных данных и более 1,2 миллиона счетов корпоративных клиентов. Банки также отмечают значительное снижение числа случаев мошенничества. Этот рост действительно впечатляет. Однако проблемы остаются.
Мошенничество с использованием искусственного интеллекта становится всё более изощрённым, и технологии должны постоянно развиваться, чтобы оставаться впереди. Биометрия, особенно верификация по лицу, обладает уникальным преимуществом: она сочетает в себе надёжную защиту и удобство использования. Этот баланс критически важен для завоевания доверия пользователей и стимулирования внедрения.
* По вашему мнению, какие стратегии необходимы для повышения осведомленности общественности и расширения применения биометрической аутентификации среди пользователей?
— Во Вьетнаме уровень доверия и принятия биометрической аутентификации стремительно растёт. Большинство людей уже разблокируют свои телефоны с помощью лица или отпечатка пальца, поэтому вполне естественно, что эта привычка распространится и на банковский сектор.
Добавьте к этому быстрый рост цифрового банкинга и мощную поддержку со стороны правительства, и мы увидим, что уровень комфорта пользователей растет быстрее, чем на многих соседних рынках.
Однако сейчас задача заключается в масштабировании. Биометрическая аутентификация должна быть доступна не только технически подкованным людям, но и старшему поколению, людям с низким уровнем цифровой грамотности и простым пользователям смартфонов.
Существует три ключевых стратегии укрепления доверия. Во-первых, биометрические системы должны работать на всех устройствах и для всех пользователей, обеспечивая инклюзивный дизайн для людей всех возрастов и возможностей. Аутентификация должна быть простой, быстрой и интуитивно понятной, без каких-либо проблем.
Банкам и регулирующим органам необходимо продемонстрировать пользователям реальные преимущества — от более быстрого входа в систему до доказанного снижения уровня мошенничества, используя реальные примеры.
Цель — сделать биометрию не просто дополнительной мерой безопасности, а наиболее естественным и надёжным способом взаимодействия в интернете. Как только это произойдёт, её внедрение естественным образом расширится.
Последствия очень серьёзные.
По данным Глобальной ассоциации судебных бухгалтеров, количество случаев дипфейка во всем мире увеличится в десять раз в период с 2023 по 2025 год, что означает рост более чем на 900% за два года. Последствия серьёзны. По оценкам Deloitte, к 2027 году убытки от мошенничества с использованием искусственного интеллекта для банков и их клиентов составят до 40 миллиардов долларов.
Во Вьетнаме угроза генеративного искусственного интеллекта и технологий дипфейка растёт и становится всё более очевидной. В 2024 году Департамент информационной безопасности (ранее Министерство информации и коммуникаций) зарегистрировал более 220 000 сообщений об онлайн-мошенничестве, большинство из которых были связаны с финансовым и банковским секторами. Более того, поскольку всё больше потребителей отдают предпочтение цифровым транзакциям, Вьетнам стал привлекательной мишенью для атак.
Один-единственный случай мошенничества может иметь разрушительные последствия, лишив сбережений семьи или подорвав доверие к инфраструктуре цифрового банкинга. Именно поэтому доверие жизненно важно для финансовой доступности.
Необходимо использовать передовую технологию биометрической аутентификации
По словам Милко Радотича, кража личных данных, опустошение счетов, несанкционированный доступ к конфиденциальным данным и крупномасштабное мошенничество могут подорвать общественное доверие к цифровой финансовой системе, которая является основой финансовой доступности и цифрового роста.
Именно поэтому банкам и платформам во Вьетнаме необходимо быть на шаг впереди. Простых паролей или одноразовых паролей уже недостаточно. Необходимо перейти к передовым технологиям биометрической аутентификации с функцией определения личности в режиме реального времени, чтобы убедиться, что человек настоящий, что он тот самый и присутствует в данный момент.
«Эта мера в сочетании с постоянными улучшениями безопасности помогает оставаться на шаг впереди быстро меняющихся угроз», — сказал Милко Радотич.
Вернуться к теме
ДОСТОИНСТВО
Источник: https://tuoitre.vn/deepfake-lan-tran-xac-thuc-sinh-trac-hoc-co-du-chong-lua-dao-bang-ai-20251016231113396.htm
Комментарий (0)