Vietnam.vn - Nền tảng quảng bá Việt Nam

Предупреждение об утечке данных, хранящихся на Google Диске, через ChatGPT

(Дэн Три) - Исследователи безопасности только что обнаружили уязвимость в функции Connectors OpenAI, позволяющую злоумышленникам тайно извлекать данные из учетных записей Google Drive через ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Заражённый документ может привести к утечке данных на Google Диске через ChatGPT (Фото: Wired).

Беспокоит то, что эта уязвимость не требует никаких действий со стороны пользователя, что вызывает новые опасения по поводу кибербезопасности в контексте моделей искусственного интеллекта (ИИ), которые все больше связаны с персональными данными.

«Отравленные» документы приводят к утечкам данных

На конференции по безопасности Black Hat в Лас-Вегасе (США) 6 августа два эксперта Майкл Баргури и Тамир Ишай Шарбат продемонстрировали метод атаки под названием AgentFlayer .

Эта атака использует уязвимость в Connectors — функции, которая соединяет ChatGPT с внешними сервисами, такими как Google Drive, Gmail или Microsoft Calendar.

«Пользователю не нужно ничего делать, чтобы подвергнуться взлому или утечке данных. Мы доказали, что это происходит буквально за один клик», — заявил Майкл Баргури, технический директор охранной компании Zenity.

Атака начинается с того, что злоумышленник публикует на Google Диске жертвы «отравленный» документ. Документ содержит вредоносную подсказку объёмом около 300 слов, написанную белым шрифтом размером 1, практически невидимым невооружённым глазом, но всё же читаемым компьютером.

На первый взгляд, текст замаскирован под заметки о встрече. На самом деле он содержит инструкции для ChatGPT по поиску и извлечению конфиденциальных ключей API из аккаунта Google Диска жертвы.

Вместо того, чтобы суммировать контент в соответствии с запросом пользователя, эта скрытая подсказка заставляет ИИ отправлять найденные API-ключи на внешний сервер по ссылке Markdown. Данные извлекаются в виде изображения, что позволяет серверу получить всю информацию.

OpenAI решила эту проблему, но риски остаются

Получив отчёт Баргьюри, OpenAI оперативно приняла меры по снижению рисков. «Важно разработать надёжную защиту от быстрых атак с внедрением вредоносного ПО», — заявил Энди Вэнь, старший директор по управлению продуктами безопасности в Google Workspace.

Несмотря на то, что проблема была устранена, инцидент выявил потенциальные риски, связанные с подключением больших языковых моделей (LLM) к внешним системам. По мере того, как ИИ всё глубже интегрируется в нашу жизнь и работу, расширяется и область атак, которую могут использовать хакеры.

Эксперты предупреждают, что непрямое быстрое внедрение может стать серьезной угрозой, позволяя злоумышленникам взять под контроль многие интеллектуальные системы — от умных домов до корпоративной инфраструктуры.

«Подключение LLM к внешним источникам данных — мощный инструмент, но, как это часто бывает с искусственным интеллектом, чем больше возможностей, тем больше риска», — заключает Баргьюри.

Источник: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Комментарий (0)

No data
No data

Та же тема

Та же категория

Заблудился в охоте за облаками в Та Сюа
В небе Сон Ла есть холм фиолетовых цветов Сим.
Фонарь — памятный подарок к празднику середины осени
Tò he – от детского подарка до произведения искусства стоимостью в миллион долларов

Тот же автор

Наследство

;

Фигура

;

Бизнес

;

No videos available

Новости

;

Политическая система

;

Местный

;

Продукт

;