
Zainfekowany dokument może spowodować wyciek danych na Dysku Google za pośrednictwem ChatGPT (zdjęcie: Wired).
Niepokojącym jest fakt, że ta luka nie wymaga od użytkownika żadnych działań, co rodzi nowe ostrzeżenia dotyczące cyberbezpieczeństwa w kontekście modeli sztucznej inteligencji (AI) coraz częściej powiązanych z danymi osobowymi.
„Zatrute” dokumenty prowadzą do wycieku danych
Podczas konferencji bezpieczeństwa Black Hat w Las Vegas (USA) 6 sierpnia dwaj eksperci Michael Bargury i Tamir Ishay Sharbat zaprezentowali metodę ataku zwaną AgentFlayer .
Atak ten wykorzystuje lukę w zabezpieczeniach Connectors – funkcji łączącej ChatGPT z usługami zewnętrznymi, takimi jak Google Drive, Gmail czy Kalendarz Microsoft.
„Użytkownik nie musi nic robić, aby paść ofiarą hakerów lub aby jego dane wyciekły. Udowodniliśmy, że jest to całkowicie bez kliknięcia” – powiedział Michael Bargury, dyrektor techniczny firmy ochroniarskiej Zenity.
Atak rozpoczyna się od udostępnienia przez atakującego „zatrutego” dokumentu na Dysku Google ofiary. Dokument zawiera złośliwy komunikat o długości około 300 słów, napisany białą czcionką o rozmiarze 1 – prawie niewidoczną gołym okiem, ale wciąż czytelną dla komputera.
Na pierwszy rzut oka tekst jest zamaskowany jako notatki ze spotkania. W rzeczywistości zawiera instrukcje dla ChatGPT dotyczące znalezienia i wyodrębnienia poufnych kluczy API z konta Google Drive ofiary.
Zamiast podsumować treść zgodnie z żądaniem użytkownika, ten ukryty komunikat zmusza sztuczną inteligencję do wysłania znalezionych kluczy API do serwera zewnętrznego za pośrednictwem linku Markdown. Dane są wyodrębniane w postaci obrazu, co pozwala serwerowi na przechwycenie wszystkich informacji.
OpenAI zajęło się tym problemem, ale ryzyko pozostaje
Po otrzymaniu raportu Bargury'ego, OpenAI szybko wdrożyło środki zaradcze. „Ważne jest opracowanie solidnych mechanizmów obronnych przed błyskawicznymi atakami polegającymi na wstrzykiwaniu złośliwego oprogramowania” – powiedział Andy Wen, starszy dyrektor ds. zarządzania produktami bezpieczeństwa w Google Workspace.
Choć problem został naprawiony, incydent uwypukla potencjalne ryzyko związane z łączeniem dużych modeli językowych (LLM) z systemami zewnętrznymi. Wraz z pogłębiającą się integracją sztucznej inteligencji z naszym życiem i pracą, rozszerza się również obszar ataków, które hakerzy mogą wykorzystać.
Eksperci ostrzegają, że pośrednie, natychmiastowe wstrzyknięcie kodu może stać się poważnym zagrożeniem, umożliwiając atakującym przejęcie kontroli nad wieloma inteligentnymi systemami, od inteligentnych domów po infrastrukturę przedsiębiorstw.
„Połączenie LLM z zewnętrznymi źródłami danych jest bardzo wydajne, ale jak to często bywa w przypadku sztucznej inteligencji, im większa wydajność, tym większe ryzyko” – podsumowuje Bargury.
Źródło: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Komentarz (0)