
Egy fertőzött dokumentum adatokat szivárogtathat ki a Google Drive-on a ChatGPT-n keresztül (Fotó: Wired).
Az aggasztó, hogy ez a sebezhetőség semmilyen beavatkozást nem igényel a felhasználó részéről, ami új figyelmeztetéseket vet fel a kiberbiztonsággal kapcsolatban a személyes adatokhoz egyre inkább kapcsolódó mesterséges intelligencia (MI) modellek kontextusában.
„Mérgezett” dokumentumok adatszivárgásokhoz vezetnek
Az augusztus 6-án Las Vegasban (USA) megrendezett Black Hat biztonsági konferencián két szakértő, Michael Bargury és Tamir Ishay Sharbat bemutatta az AgentFlayer nevű támadási módszert.
Ez a támadás a Connectors – egy olyan funkció, amely a ChatGPT-t külső szolgáltatásokkal, például a Google Drive-val, a Gmaillel vagy a Microsoft Naptárral kapcsolja össze – sebezhetőségét használja ki.
„A felhasználónak nem kell tennie semmit ahhoz, hogy feltörjék, vagy hogy kiszivárogjanak az adatai. Bebizonyítottuk, hogy ez teljesen kattintásmentes” – mondta Michael Bargury, a Zenity biztonsági cég műszaki igazgatója.
A támadás azzal kezdődik, hogy a támadó megosztott egy „mérgezett” dokumentumot az áldozat Google Drive-ján. A dokumentum egy körülbelül 300 szavas rosszindulatú üzenetet tartalmaz, 1-es méretű fehér betűtípussal – szabad szemmel szinte láthatatlan, de a számítógép számára mégis olvasható.
Felszínesen a szöveg megbeszélési jegyzeteknek álcázott. A valóságban utasításokat tartalmaz a ChatGPT számára, hogy megtalálja és kinyerje az áldozat Google Drive-fiókjából az érzékeny API-kulcsokat.
Ahelyett, hogy a felhasználó kérésére összefoglalná a tartalmat, ez a rejtett prompt arra kényszeríti a mesterséges intelligenciát, hogy a megtalált API-kulcsokat egy külső szerverre küldje egy Markdown-linken keresztül. Az adatokat képként nyeri ki, lehetővé téve a szerver számára, hogy rögzítse a teljes információt.
Az OpenAI megoldotta a problémát, de a kockázatok továbbra is fennállnak.
Bargury jelentésének kézhezvétele után az OpenAI gyorsan enyhítő intézkedéseket vezetett be. „Fontos, hogy robusztus védelmet fejlesszünk ki a gyors támadással szemben” – mondta Andy Wen, a Google Workspace biztonsági termékmenedzsmentért felelős vezető igazgatója.
Bár a hibát javították, az incidens rávilágít a nagy nyelvi modellek (LLM-ek) külső rendszerekhez való csatlakoztatásának lehetséges kockázataira. Ahogy a mesterséges intelligencia egyre mélyebben integrálódik az életünkbe és a munkánkba, a hackerek által kihasználható támadási felület is bővül.
A szakértők figyelmeztetnek, hogy a közvetett azonnali befecskendezés komoly fenyegetést jelenthet, lehetővé téve a támadók számára, hogy átvegyék az irányítást számos intelligens rendszer felett, az okosotthonoktól a vállalati infrastruktúráig.
„Az LLM külső adatforrásokhoz való csatlakoztatása hatékony eszköz, de ahogy az a mesterséges intelligencia esetében gyakran előfordul, a nagyobb teljesítmény nagyobb kockázattal is jár” – vonja le a következtetést Bargury.
Forrás: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Hozzászólás (0)