Vietnam.vn - Nền tảng quảng bá Việt Nam

Безопасность данных в эпоху искусственного интеллекта.

Дипфейки, фишинговые атаки и кража цифровой личности становятся все более изощренными и могут произойти в любой момент, поражая любого, кто не обладает навыками цифровой защиты.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Атакуйте со всех сторон.

Компания Google запустила новый продукт на основе искусственного интеллекта (ИИ) под названием "Gemini Nano Banana", который представляет собой не крупномасштабный лингвистический ИИ (LLM), способный к письму и рассуждениям, а скорее ИИ, специализирующийся на редактировании фотографий... Многие пользователи в восторге от этого инструмента, но он также имеет ряд недостатков.

S4c.jpg
В начальной школе имени Чан Хун Дао в районе Кау Онг Лань города Хошимин используется система распознавания лиц для учета посещаемости и отправки уведомлений родителям через приложение. Фото: Хоанг Хун.

«Это как „шаг назад“ в развитии технологий искусственного интеллекта и этических ограничений», — сказал Нгуен Хонг Фук, главный научный сотрудник Conductify AI, выражая своё личное мнение. «Gemini Nano Banana обладает эффективными возможностями редактирования изображений. Но снятие цензуры с Gemini Nano Banana компанией Google, ослабление барьеров и ограничивающих механизмов, позволяет этому ИИ создавать изображения, невероятно похожие на знаменитостей, изображения с двусмысленным подтекстом, изображения деликатного характера и т. д.», — сказал Фук.

По словам г-на Нгуен Хонг Фука, эта возможность делает Gemini Nano Banana инструментом для создания реалистичных поддельных изображений, настолько реалистичных, что даже эксперты по искусственному интеллекту не могут их распознать, что приводит к новым рискам мошенничества и кибербезопасности, таким как создание поддельных фотографий с известными политиками для распространения ложной информации, и даже случаи, когда отдельные лица подвергаются манипуляциям с фотографиями, созданными ИИ, и клевете в социальных сетях...

Кроме того, с появлением десятков других инструментов для редактирования фотографий с использованием ИИ, захватывающих интернет, мошенничество с использованием дипфейков не показывает признаков замедления. Статистика от организаций, занимающихся вопросами безопасности, показывает, что технология дипфейков создает фишинговые кампании, нацеленные на высокопоставленных лиц, особенно на руководителей предприятий. В 2024 году в мире было зафиксировано 140 000–150 000 таких случаев, причем 75% из них были направлены против генеральных директоров и топ-менеджеров... Использование дипфейков может увеличить глобальные экономические потери на 32%, что составит приблизительно 40 миллиардов долларов в год к 2027 году.

Недавно компания Anthropic, специализирующаяся на искусственном интеллекте, обнаружила и предотвратила кибератаку, осуществленную иностранными хакерами, которые впервые зафиксировали использование ИИ для координации автоматизированных атак. В частности, хакеры использовали системы ИИ для планирования, управления и осуществления операций по вторжению – «тревожное» событие, которое рискует расширить масштабы и скорость кибератак…

Г-н Нго Минь Хиеу, директор Организации по борьбе с мошенничеством Национальной ассоциации кибербезопасности, рассказал, что инструменты, интегрированные с ИИ, увеличивают скорость мошенничества примерно в 20 раз по сравнению с использованием реальных людей. Мошенники предоставляют ИИ сценарий мошенничества для анализа, и система немедленно автоматически вступает в диалог с жертвой. На основе исходных данных ИИ может понять, чего хочет жертва, и общаться с ней в режиме реального времени. Наиболее изощренная тактика — это атака «человек посередине» (Man-in-the-Middle), когда, когда пользователь выполняет видеоаутентификацию (например, записывает свое лицо или отдает команды), хакер вмешивается, чтобы изменить передаваемые данные. Затем киберпреступники вставляют заранее подготовленные дипфейк-видео, заменяя реальный поток данных пользователя, чтобы обойти процесс аутентификации. С помощью этого метода системы безопасности банков и финансовых учреждений также подвергаются риску обмана.

Улучшенное управление данными

По мере распространения ИИ значительно возрастают и риски для безопасности и конфиденциальности. Данные, хранящиеся и обрабатываемые на удаленных серверах, станут привлекательной целью для хакеров и киберпреступников. Согласно данным Национальной ассоциации кибербезопасности, только во втором квартале 2025 года количество кибератак с использованием ИИ увеличилось на 62%, что привело к глобальным убыткам в размере до 18 миллиардов долларов...

Эксперты считают защиту данных крайне важной. Однако сбор и продажа данных продолжаются открыто на многих платформах «черного рынка» всего за 20 долларов в месяц. Киберпреступники могут использовать инструменты, имитирующие языковые модели, но адаптированные для преступных целей. Эти инструменты способны создавать вредоносное ПО и даже обходить антивирусные программы.

Во Вьетнаме Указ № 13/2023/ND-CP (вступивший в силу 17 апреля 2023 г.) регулирует защиту персональных данных. Кроме того, Закон о защите персональных данных, который, как ожидается, вступит в силу 1 января 2026 года, откроет более сильный правовой механизм для борьбы с риском утечки и неправомерного использования персональных данных. Однако, по мнению Национальной ассоциации кибербезопасности, эффективность правоприменения все еще нуждается в усилении по трем направлениям: повышение осведомленности общественности, повышение корпоративной ответственности и улучшение возможностей обработки данных регулирующими органами. Помимо технических мер, каждый человек должен развить способность распознавать необычные и подозрительные признаки и активно защищать себя от опасных цифровых взаимодействий…

Компания «Лаборатория Касперского» предупредила об использовании «темного ИИ» (термин, обозначающий развертывание больших языковых моделей (LLM), работающих вне стандартных средств защиты, что часто позволяет совершать такие действия, как фишинг, манипуляции, кибератаки или злоупотребление данными). Организациям и частным лицам необходимо подготовиться к противодействию все более изощренным и труднообнаружимым кибератакам в связи с ростом использования «темного ИИ» в Азиатско-Тихоокеанском регионе.

Сергей Ложкин, руководитель глобальной группы исследований и анализа (GReAT) по Ближнему Востоку, Турции, Африке и Азиатско-Тихоокеанскому региону в компании «Лаборатория Касперского», рассказал, что одним из проявлений злоупотреблений в сфере ИИ в настоящее время является появление моделей Black Hat GPT. Это модели ИИ, специально разработанные или модифицированные для неэтичных и незаконных целей, таких как создание вредоносного ПО, разработка убедительных фишинговых писем для крупномасштабных атак, создание дипфейк-голосов и видео, а также поддержка имитации атак.

Эксперты «Лаборатории Касперского» рекомендуют частным лицам и компаниям использовать решения нового поколения для обнаружения вредоносного ПО, созданного с помощью ИИ, уделяя при этом первостепенное внимание защите данных. Компаниям следует внедрить инструменты мониторинга в реальном времени для отслеживания эксплуатации уязвимостей, создаваемых ИИ; усилить контроль доступа и обучение сотрудников, чтобы ограничить использование ИИ в «темной зоне» и риск утечки данных; а также создать центр оперативного управления кибербезопасностью для мониторинга угроз и быстрого реагирования на инциденты.

Источник: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Двойные сферы в лучах утреннего солнца

Двойные сферы в лучах утреннего солнца

Давайте вместе отпразднуем 80-летие.

Давайте вместе отпразднуем 80-летие.

Познакомьтесь с традиционным ткачеством вместе с мастерами из Эде.

Познакомьтесь с традиционным ткачеством вместе с мастерами из Эде.