
Заражённый документ может привести к утечке данных на Google Диске через ChatGPT (Фото: Wired).
Беспокоит то, что эта уязвимость не требует никаких действий со стороны пользователя, что вызывает новые опасения по поводу кибербезопасности в контексте моделей искусственного интеллекта (ИИ), которые все больше связаны с персональными данными.
«Отравленные» документы приводят к утечкам данных
На конференции по безопасности Black Hat в Лас-Вегасе (США) 6 августа два эксперта Майкл Баргури и Тамир Ишай Шарбат продемонстрировали метод атаки под названием AgentFlayer .
Эта атака использует уязвимость в Connectors — функции, которая соединяет ChatGPT с внешними сервисами, такими как Google Drive, Gmail или Microsoft Calendar.
«Пользователю не нужно ничего делать, чтобы подвергнуться взлому или утечке данных. Мы доказали, что это происходит буквально за один клик», — заявил Майкл Баргури, технический директор охранной компании Zenity.
Атака начинается с того, что злоумышленник публикует на Google Диске жертвы «отравленный» документ. Документ содержит вредоносную подсказку объёмом около 300 слов, написанную белым шрифтом размером 1, практически невидимым невооружённым глазом, но всё же читаемым компьютером.
На первый взгляд, текст замаскирован под заметки о встрече. На самом деле он содержит инструкции для ChatGPT по поиску и извлечению конфиденциальных ключей API из аккаунта Google Диска жертвы.
Вместо того, чтобы суммировать контент в соответствии с запросом пользователя, эта скрытая подсказка заставляет ИИ отправлять найденные API-ключи на внешний сервер по ссылке Markdown. Данные извлекаются в виде изображения, что позволяет серверу получить всю информацию.
OpenAI решила эту проблему, но риски остаются
Получив отчёт Баргьюри, OpenAI оперативно приняла меры по снижению рисков. «Важно разработать надёжную защиту от быстрых атак с внедрением вредоносного ПО», — заявил Энди Вэнь, старший директор по управлению продуктами безопасности в Google Workspace.
Несмотря на то, что проблема была устранена, инцидент выявил потенциальные риски, связанные с подключением больших языковых моделей (LLM) к внешним системам. По мере того, как ИИ всё глубже интегрируется в нашу жизнь и работу, расширяется и область атак, которую могут использовать хакеры.
Эксперты предупреждают, что непрямое быстрое внедрение может стать серьезной угрозой, позволяя злоумышленникам взять под контроль многие интеллектуальные системы — от умных домов до корпоративной инфраструктуры.
«Подключение LLM к внешним источникам данных — мощный инструмент, но, как это часто бывает с искусственным интеллектом, чем больше возможностей, тем больше риска», — заключает Баргьюри.
Источник: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Комментарий (0)