Vietnam.vn - Nền tảng quảng bá Việt Nam

Ostrzeżenie o wycieku danych przechowywanych na Dysku Google za pośrednictwem ChatGPT

(Dan Tri) - Badacze ds. bezpieczeństwa właśnie odkryli lukę w zabezpieczeniach funkcji OpenAI Connectors, umożliwiającą cyberprzestępcom potajemne pobieranie danych z kont Google Drive za pośrednictwem ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Zainfekowany dokument może spowodować wyciek danych na Dysku Google za pośrednictwem ChatGPT (zdjęcie: Wired).

Niepokojącym jest fakt, że ta luka nie wymaga od użytkownika żadnych działań, co rodzi nowe ostrzeżenia dotyczące cyberbezpieczeństwa w kontekście modeli sztucznej inteligencji (AI) coraz częściej powiązanych z danymi osobowymi.

„Zatrute” dokumenty prowadzą do wycieku danych

Podczas konferencji bezpieczeństwa Black Hat w Las Vegas (USA) 6 sierpnia dwaj eksperci Michael Bargury i Tamir Ishay Sharbat zaprezentowali metodę ataku zwaną AgentFlayer .

Atak ten wykorzystuje lukę w zabezpieczeniach Connectors – funkcji łączącej ChatGPT z usługami zewnętrznymi, takimi jak Google Drive, Gmail czy Kalendarz Microsoft.

„Użytkownik nie musi nic robić, aby paść ofiarą hakerów lub aby jego dane wyciekły. Udowodniliśmy, że jest to całkowicie bez kliknięcia” – powiedział Michael Bargury, dyrektor techniczny firmy ochroniarskiej Zenity.

Atak rozpoczyna się od udostępnienia przez atakującego „zatrutego” dokumentu na Dysku Google ofiary. Dokument zawiera złośliwy komunikat o długości około 300 słów, napisany białą czcionką o rozmiarze 1 – prawie niewidoczną gołym okiem, ale wciąż czytelną dla komputera.

Na pierwszy rzut oka tekst jest zamaskowany jako notatki ze spotkania. W rzeczywistości zawiera instrukcje dla ChatGPT dotyczące znalezienia i wyodrębnienia poufnych kluczy API z konta Google Drive ofiary.

Zamiast podsumować treść zgodnie z żądaniem użytkownika, ten ukryty komunikat zmusza sztuczną inteligencję do wysłania znalezionych kluczy API do serwera zewnętrznego za pośrednictwem linku Markdown. Dane są wyodrębniane w postaci obrazu, co pozwala serwerowi na przechwycenie wszystkich informacji.

OpenAI zajęło się tym problemem, ale ryzyko pozostaje

Po otrzymaniu raportu Bargury'ego, OpenAI szybko wdrożyło środki zaradcze. „Ważne jest opracowanie solidnych mechanizmów obronnych przed błyskawicznymi atakami polegającymi na wstrzykiwaniu złośliwego oprogramowania” – powiedział Andy Wen, starszy dyrektor ds. zarządzania produktami bezpieczeństwa w Google Workspace.

Choć problem został naprawiony, incydent uwypukla potencjalne ryzyko związane z łączeniem dużych modeli językowych (LLM) z systemami zewnętrznymi. Wraz z pogłębiającą się integracją sztucznej inteligencji z naszym życiem i pracą, rozszerza się również obszar ataków, które hakerzy mogą wykorzystać.

Eksperci ostrzegają, że pośrednie, natychmiastowe wstrzyknięcie kodu może stać się poważnym zagrożeniem, umożliwiając atakującym przejęcie kontroli nad wieloma inteligentnymi systemami, od inteligentnych domów po infrastrukturę przedsiębiorstw.

„Połączenie LLM z zewnętrznymi źródłami danych jest bardzo wydajne, ale jak to często bywa w przypadku sztucznej inteligencji, im większa wydajność, tym większe ryzyko” – podsumowuje Bargury.

Źródło: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Tag: OTWARTE

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Tò he – od prezentu z dzieciństwa do dzieła sztuki wartego milion dolarów
Wysiłki mające na celu zachowanie tradycyjnego rzemiosła wyrobu zabawek na środek jesieni we wsi Ong Hao
Zagubiony w polowaniu na chmury w Ta Xua
Podziwiając ukryte w chmurach pola wiatrowe nadbrzeżne Gia Lai

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt