EchoLeak и потенциальные риски искусственного интеллекта
По мере того, как искусственный интеллект (ИИ) становится частью каждой работы, от помощи в написании отчётов и ответов на электронные письма до анализа данных, пользователи, похоже, живут в эпоху беспрецедентного удобства. Но начинает проявляться и обратная сторона удобства, особенно когда речь идёт о безопасности.
Недавняя уязвимость безопасности, получившая название EchoLeak, подвергла пользователей сервиса Microsoft Copilot риску утечки конфиденциальных данных без каких-либо действий с их стороны.
Когда ИИ становится уязвимостью безопасности
Согласно исследованию Tuoi Tre Online , EchoLeak — это уязвимость безопасности, недавно зарегистрированная с кодом CVE-2025-32711, которую эксперты оценили как опасную на уровне 9,3/10 по шкале NIST.
Экспертов по безопасности беспокоит его «нулевой клик» : злоумышленники могут использовать данные Copilot, даже не нажимая кнопку мыши, не открывая файл и даже не осознавая, что что-то происходит.
Это не простая ошибка. Исследовательская группа Aim Labs, обнаружившая уязвимость, считает, что EchoLeak отражает распространённый недостаток архитектуры систем RAG (генерация дополненной реальности) и систем ИИ на основе агентов. Поскольку Copilot входит в пакет приложений Microsoft 365, хранящий электронную почту, документы, таблицы и расписания встреч миллионов пользователей, риск утечки данных очень серьёзный.
Проблема кроется не только в конкретном коде, но и в том, как работают большие языковые модели (LLM). ИИ для точной реакции требуется обширный контекст, поэтому ему предоставляется доступ к большим объёмам фоновых данных. Без чёткого контроля над входными и выходными данными ИИ может «управляться» способами, о которых пользователи не подозревают. Это создаёт новый вид «бэкдора» — не из-за ошибок в коде, а из-за того, что поведение ИИ выходит за рамки человеческого понимания.
Microsoft быстро выпустила исправление, и пока о реальном ущербе не сообщалось. Но урок, извлеченный из EchoLeak, очевиден: когда ИИ глубоко интегрирован в работающие системы, даже небольшие ошибки в понимании контекста могут иметь серьёзные последствия для безопасности.
Чем удобнее ИИ, тем более уязвимы персональные данные
Инцидент с EchoLeak поднимает тревожный вопрос: неужели пользователи настолько доверяют искусственному интеллекту, что не понимают, что их можно отслеживать или раскрыть их персональные данные, просто отправив текстовое сообщение? Недавно обнаруженная уязвимость, позволяющая хакерам незаметно извлекать данные, не нажимая никаких кнопок, раньше встречалась только в научно-фантастических фильмах, но теперь стала реальностью.
В то время как приложения ИИ становятся все более популярными — от виртуальных помощников, таких как Copilot, чат-ботов в банковском деле, образовании до платформ ИИ, которые пишут контент и обрабатывают электронные письма, — большинство людей не предупреждаются о том, как обрабатываются и хранятся их данные.
«Общение» с системой искусственного интеллекта теперь не ограничивается простыми вопросами для удобства: оно может непреднамеренно раскрыть ваше местоположение, привычки, эмоции или даже данные учетной записи.
Во Вьетнаме многие знакомы с использованием ИИ на телефонах и компьютерах, не имея базовых знаний о цифровой безопасности . Многие делятся личной информацией с ИИ, полагая, что «это всего лишь машина». Но на самом деле за ним стоит система, которая может регистрировать, изучать и передавать данные, особенно если платформа ИИ принадлежит третьей стороне и не прошла строгую проверку на безопасность.
Чтобы ограничить риски, пользователям не обязательно отказываться от технологий, но им следует быть более осведомленными: они должны тщательно проверять, имеет ли используемое ими приложение ИИ надежный источник, зашифрованы ли данные, и, в особенности, не передавать конфиденциальную информацию, такую как идентификационные номера, банковские счета, информацию о состоянии здоровья... какой-либо системе ИИ без четкого предупреждения.
Как и в эпоху зарождения Интернета, искусственному интеллекту также требуется время для совершенствования, и в течение этого времени пользователи должны быть первыми, кто начнет превентивно защищать себя.
Не слишком ли много вы делитесь с ИИ?
Вводя команду «перепишите этот отчёт для меня, но в более дружелюбной форме» или «подведите итог вчерашнего совещания», многие не задумываются, что вся вводимая ими информация, включая внутренние детали, личные переживания или рабочие привычки, может быть записана искусственным интеллектом. Мы постепенно привыкаем к общению с помощью умных инструментов, забывая о границе между удобством и конфиденциальностью.
Источник: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm
Комментарий (0)