
Infikovaný dokument může unikat data na Disku Google prostřednictvím ChatGPT (Foto: Wired).
Znepokojivé je, že tato zranitelnost nevyžaduje od uživatele žádnou akci, což vyvolává nová varování ohledně kybernetické bezpečnosti v kontextu modelů umělé inteligence (AI), které jsou stále více propojovány s osobními údaji.
„Otrávené“ dokumenty vedou k únikům dat
Na bezpečnostní konferenci Black Hat v Las Vegas (USA) 6. srpna předvedli dva experti Michael Bargury a Tamir Ishay Sharbat útočnou metodu s názvem AgentFlayer .
Tento útok zneužívá zranitelnost v Connectorech – funkci, která propojuje ChatGPT s externími službami, jako je Disk Google, Gmail nebo Kalendář Microsoft.
„Uživatel nemusí dělat nic, aby byl ohrožen nebo aby jeho data unikla,“ řekl Michael Bargury, technický ředitel bezpečnostní firmy Zenity. „Dokázali jsme, že je to zcela bez kliknutí.“
Útok začíná sdílením „otráveného“ dokumentu na Disku Google oběti. Dokument obsahuje škodlivou výzvu o délce asi 300 slov, napsanou bílým písmem o velikosti 1 bod – téměř neviditelnou pouhým okem, ale stále čitelnou pro počítač.
Na první pohled je text maskovaný jako poznámky ze schůzky. Ve skutečnosti obsahuje pokyny pro ChatGPT, aby našel a extrahoval citlivé klíče API z účtu Google Disk oběti.
Místo shrnutí obsahu podle požadavků uživatele tato skrytá výzva nutí umělou inteligenci odeslat nalezené klíče API na externí server prostřednictvím odkazu Markdown. Data jsou extrahována jako obrázek, což serveru umožňuje zachytit veškeré informace.
OpenAI na to přišla, ale rizika přetrvávají
Společnost OpenAI po obdržení Barguryho zprávy rychle implementovala zmírňující opatření. „Je důležité vyvinout robustní obranu proti rychlým útokům s malwarem,“ řekl Andy Wen, senior ředitel pro správu bezpečnostních produktů ve společnosti Google Workspace.
Přestože byl incident opraven, zdůrazňuje potenciální rizika propojení velkých jazykových modelů (LLM) s externími systémy. S tím, jak se umělá inteligence hlouběji integruje do našich životů a práce, rozšiřuje se i plocha pro útok, kterou mohou hackeři zneužít.
Odborníci varují, že nepřímá promptní injekce se může stát vážnou hrozbou a útočníkům umožní převzít kontrolu nad mnoha inteligentními systémy, od chytrých domů až po podnikovou infrastrukturu.
„Propojení LLM s externími zdroji dat je výkonné, ale jak už to u umělé inteligence bývá, s větším výkonem přichází i větší riziko,“ uzavírá Bargury.
Zdroj: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Komentář (0)