Vietnam.vn - Nền tảng quảng bá Việt Nam

Попередження про витік даних, що зберігаються на Google Диску, через ChatGPT

(Ден Трі) - Дослідники безпеки щойно виявили вразливість у функції Connectors OpenAI, яка дозволяє зловмисникам таємно витягувати дані з облікових записів Google Диска через ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Заражений документ може призвести до витоку даних на Google Диску через ChatGPT (Фото: Wired).

Тривожним моментом є те, що ця вразливість не вимагає жодних дій від користувача, що викликає нові попередження щодо кібербезпеки в контексті моделей штучного інтелекту (ШІ), які все більше пов'язані з персональними даними.

«Отруєні» документи призводять до витоку даних

На конференції з безпеки Black Hat у Лас-Вегасі (США) 6 серпня два експерти Майкл Баргурі та Тамір Ішай Шарбат продемонстрували метод атаки під назвою AgentFlayer .

Ця атака використовує вразливість у Connectors – функції, яка з’єднує ChatGPT із зовнішніми сервісами, такими як Google Диск, Gmail або Microsoft Calendar.

«Користувачеві не потрібно нічого робити, щоб його зламали або витік даних стався. Ми довели, що це абсолютно безкоштовне керування», – сказав Майкл Баргурі, технічний директор компанії з безпеки Zenity.

Атака починається з того, що зловмисник поширює «отруєний» документ на Google Диску жертви. Документ містить шкідливе повідомлення обсягом близько 300 слів, написане білим шрифтом розміром 1 – майже невидимим для неозброєного ока, але все ще читабельним для комп’ютера.

На перший погляд, текст замаскований під нотатки зустрічі. Насправді він містить інструкції для ChatGPT щодо пошуку та вилучення конфіденційних ключів API з облікового запису Google Диска жертви.

Замість того, щоб підсумовувати контент, як запитував користувач, це приховане підказка змушує штучний інтелект надсилати знайдені ключі API на зовнішній сервер через посилання Markdown. Дані витягуються у вигляді зображення, що дозволяє серверу захопити всю інформацію.

OpenAI вирішив це питання, але ризики залишаються

Отримавши звіт Баргурі, OpenAI швидко вжила заходів щодо пом’якшення наслідків. «Важливо розробити надійний захист від швидкоплинних атак із впровадженням шкідливого програмного забезпечення», – сказав Енді Вен, старший директор з управління продуктами безпеки в Google Workspace.

Хоча і виправлено, інцидент підкреслює потенційні ризики підключення моделей великих мов програмування (LLM) до зовнішніх систем. Оскільки штучний інтелект стає все глибшою інтеграцією в наше життя та роботу, область атаки, яку можуть використати хакери, також розширюється.

Експерти попереджають, що непряме впровадження заражених даних може стати серйозною загрозою, дозволяючи зловмисникам отримати контроль над багатьма розумними системами, від розумних будинків до корпоративної інфраструктури.

«Підключення LLM до зовнішніх джерел даних є потужним інструментом, але, як це часто буває зі штучним інтелектом, чим більше потужностей, тим більше ризиків», – підсумовує Баргурі.

Джерело: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Збереження духу Свята середини осені через кольори фігурок
Відкрийте для себе єдине село у В'єтнамі, яке входить до списку 50 найкрасивіших сіл світу
Чому цього року популярні ліхтарі з червоними прапорами та жовтими зірками?
В'єтнам переміг у музичному конкурсі «Інтербачення 2025»

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт