Vietnam.vn - Nền tảng quảng bá Việt Nam

Безопасность данных в эпоху ИИ

Дипфейки, фишинговые атаки, кража информации и цифровых личных данных... становятся все более изощренными и могут атаковать в любой момент любого, у кого нет навыков цифровой защиты.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Атака со всех сторон

Компания Google выпустила новый продукт на основе искусственного интеллекта (ИИ) под названием «Gemini Nano Banana», который представляет собой не ИИ с большим уровнем владения языком (LLM) со способностью писать и рассуждать, а ИИ, специализирующийся на редактировании фотографий... Многие пользователи в восторге от этого инструмента, но он также имеет множество вредных последствий.

S4c.jpg
Начальная школа «Тран Хынг Дао» в районе Кау Онг Лань города Хошимин использует систему распознавания лиц для отслеживания посещаемости учеников и отправки уведомлений родителям через приложение. Фото: ХОАН ХУНГ

«Это своего рода „регресс“ технологий и этики ИИ», — сказал Нгуен Хонг Фук, директор по науке в Conductify AI. «Gemini Nano Banana способен эффективно редактировать фотографии. Но отмена цензуры Google в Gemini Nano Banana, которая ослабляет барьеры и ограничивающие механизмы, позволяет этому ИИ создавать изображения, очень похожие на изображения знаменитостей, сексуальные образы, интимные образы…» — сказал г-н Фук.

По словам г-на Нгуена Хонг Фука, эта способность делает Gemini Nano Banana инструментом для создания поддельных изображений настолько реалистичных, что даже эксперты в области ИИ не могут их различить, что приводит к новым рискам мошенничества и рискам кибербезопасности, таким как создание фотографий с политиками и известными политиками для распространения ложной информации, даже фотографии отдельных лиц редактируются ИИ и порочатся в социальных сетях...

Кроме того, учитывая, что десятки других инструментов искусственного интеллекта для редактирования фотографий «набирают обороты» в интернете, мошенничеству с использованием дипфейков не видно конца. Статистика организаций, занимающихся безопасностью, показывает, что технология дипфейков создаёт мошеннические кампании, нацеленные на высокопоставленных лиц, особенно руководителей компаний. В 2024 году во всём мире было зафиксировано 140 000–150 000 случаев, из которых 75% были направлены против генеральных директоров и руководителей высшего звена... Дипфейки могут увеличить глобальные экономические потери на 32%, составив около 40 миллиардов долларов США в год, к 2027 году.

Недавно компания AI Anthropic Company обнаружила и предотвратила кибератаку, организованную иностранными хакерами, в ходе которой впервые было зафиксировано использование ИИ для координации автоматизированных атак. В частности, хакеры использовали системы ИИ для планирования, руководства и реализации атак на системы безопасности, что является «тревожным» событием, которое может привести к расширению масштабов и скорости кибератак...

Г-н Нго Минь Хьеу, директор Управления по борьбе с мошенничеством Национальной ассоциации кибербезопасности, рассказал, что скорость обнаружения мошенничества с помощью интегрированного ИИ инструмента примерно в 20 раз выше, чем при использовании реальных людей. Субъекты предоставляют ИИ сценарий мошенничества для анализа, и система немедленно автоматически начинает общаться с жертвами. На основе исходных данных ИИ может определить, чего хочет жертва, и общаться с ней в режиме реального времени. Самый изощрённый приём — атака «Человек посередине» (Man-in-the-Middle), когда пользователь выполняет видеоаутентификацию, например, поворачивает лицо, читает команды, а хакер встаёт между ними и вмешивается в передаваемые данные. В это время киберпреступники вставляют подготовленные фейковые видео, заменяя реальный поток данных пользователя, чтобы обойти аутентификацию... При использовании вышеуказанного метода системы безопасности банков и финансовых учреждений также подвергаются риску мошенничества.

Лучшее управление данными

С ростом популярности искусственного интеллекта (ИИ) значительно возрастают риски безопасности и конфиденциальности. Данные, хранящиеся и обрабатываемые на удалённых серверах, станут привлекательной целью для хакеров и киберпреступных организаций. По данным Национальной ассоциации кибербезопасности (NASE), только во втором квартале 2025 года количество кибератак с использованием ИИ выросло на 62%, что привело к глобальным потерям до 18 миллиардов долларов США...

Эксперты утверждают, что защита данных жизненно важна. Однако сбор и продажа данных по-прежнему открыто осуществляются на многих платформах «тёмного рынка» всего за 20 долларов в месяц. Киберпреступники могут использовать инструменты, работающие аналогично языковым моделям, но адаптированные для преступных целей. Эти инструменты способны создавать вредоносный код и даже обходить антивирусное ПО.

Во Вьетнаме Указ № 13/2023/ND-CP (вступил в силу 17 апреля 2023 года) регулирует защиту персональных данных. Кроме того, ожидается, что Закон о защите персональных данных вступит в силу с 1 января 2026 года, что создаст более эффективный правовой механизм реагирования на риск утечки и злоупотребления персональными данными. Однако, по данным Национальной ассоциации кибербезопасности, эффективность правоприменения по-прежнему нуждается в усилении по всем трём направлениям: повышение осведомлённости населения, повышение ответственности бизнеса и улучшение возможностей органов управления по обработке запросов. Помимо технических мер, каждому человеку необходимо развить способность выявлять необычные и подозрительные признаки и заблаговременно защищать себя от опасных цифровых взаимодействий...

Компания Kaspersky, специализирующаяся на безопасности, предупредила о нецелевом использовании Dark AI (термин, используемый для описания внедрения больших языковых моделей (LLM), которые работают вне стандартных механизмов безопасности, что часто позволяет совершать такие действия, как мошенничество, манипуляции, кибератаки или несанкционированное использование данных). Организациям и частным лицам необходимо быть готовыми к всё более изощрённым и труднообнаружимым кибератакам в связи с ростом популярности Dark AI в Азиатско-Тихоокеанском регионе.

Сергей Ложкин, руководитель отдела глобальных исследований и анализа (GReAT) «Лаборатории Касперского», отвечающий за Ближний Восток, Турцию, Африку и Азиатско-Тихоокеанский регион, отметил, что одним из проявлений злоупотребления ИИ сегодня является появление моделей Black Hat GPT. Это модели ИИ, специально разработанные или адаптированные для неэтичных и незаконных целей, таких как создание вредоносного ПО, составление быстрых и убедительных фишинговых писем для проведения масштабных атак, создание голосов и фейковых видео, а также поддержка имитации атак...

Эксперты «Лаборатории Касперского» рекомендуют частным лицам и компаниям использовать защитные решения нового поколения для обнаружения вредоносного ПО, создаваемого искусственным интеллектом, и считать защиту данных важной задачей. Компаниям необходимо применять инструменты мониторинга в режиме реального времени для отслеживания эксплойтов, создаваемых искусственным интеллектом; усилить контроль доступа и обучение персонала, чтобы ограничить использование искусственного интеллекта в неведении и снизить риск утечки данных; создать центр управления кибербезопасностью для мониторинга угроз и быстрого реагирования на инциденты...

Источник: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Комментарий (0)

No data
No data

Та же тема

Та же категория

Жизнь людей в затопленной зоне Кханьхоа на уровне «два нуля» на 5-й день противопаводковых мероприятий
В 4-й раз я отчетливо вижу гору Баден, хотя и редко из Хошимина.
Полюбуйтесь прекрасными пейзажами Вьетнама в клипе Субина «Muc Ha Vo Nhan»
Кофейни с ранним рождественским декором способствуют резкому росту продаж, привлекая множество молодых людей.

Тот же автор

Наследство

Фигура

Бизнес

Поражён прекрасным пейзажем, словно нарисованным акварелью, в Бен-Эне.

Текущие события

Политическая система

Местный

Продукт