Vietnam.vn - Nền tảng quảng bá Việt Nam

Figyelmeztetés a Google Drive-on tárolt adatok ChatGPT-n keresztüli szivárgására

(Dan Tri) – Biztonsági kutatók felfedeztek egy sebezhetőséget az OpenAI Connectors funkciójában, amely lehetővé teszi a rosszfiúk számára, hogy titokban adatokat kinyerjenek a Google Drive-fiókokból a ChatGPT segítségével.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Egy fertőzött dokumentum adatokat szivárogtathat ki a Google Drive-on a ChatGPT-n keresztül (Fotó: Wired).

Az aggasztó, hogy ez a sebezhetőség semmilyen beavatkozást nem igényel a felhasználó részéről, ami új figyelmeztetéseket vet fel a kiberbiztonsággal kapcsolatban a személyes adatokhoz egyre inkább kapcsolódó mesterséges intelligencia (MI) modellek kontextusában.

„Mérgezett” dokumentumok adatszivárgásokhoz vezetnek

Az augusztus 6-án Las Vegasban (USA) megrendezett Black Hat biztonsági konferencián két szakértő, Michael Bargury és Tamir Ishay Sharbat bemutatta az AgentFlayer nevű támadási módszert.

Ez a támadás a Connectors – egy olyan funkció, amely a ChatGPT-t külső szolgáltatásokkal, például a Google Drive-val, a Gmaillel vagy a Microsoft Naptárral kapcsolja össze – sebezhetőségét használja ki.

„A felhasználónak nem kell tennie semmit ahhoz, hogy feltörjék, vagy hogy kiszivárogjanak az adatai. Bebizonyítottuk, hogy ez teljesen kattintásmentes” – mondta Michael Bargury, a Zenity biztonsági cég műszaki igazgatója.

A támadás azzal kezdődik, hogy a támadó megosztott egy „mérgezett” dokumentumot az áldozat Google Drive-ján. A dokumentum egy körülbelül 300 szavas rosszindulatú üzenetet tartalmaz, 1-es méretű fehér betűtípussal – szabad szemmel szinte láthatatlan, de a számítógép számára mégis olvasható.

Felszínesen a szöveg megbeszélési jegyzeteknek álcázott. A valóságban utasításokat tartalmaz a ChatGPT számára, hogy megtalálja és kinyerje az áldozat Google Drive-fiókjából az érzékeny API-kulcsokat.

Ahelyett, hogy a felhasználó kérésére összefoglalná a tartalmat, ez a rejtett prompt arra kényszeríti a mesterséges intelligenciát, hogy a megtalált API-kulcsokat egy külső szerverre küldje egy Markdown-linken keresztül. Az adatokat képként nyeri ki, lehetővé téve a szerver számára, hogy rögzítse a teljes információt.

Az OpenAI megoldotta a problémát, de a kockázatok továbbra is fennállnak.

Bargury jelentésének kézhezvétele után az OpenAI gyorsan enyhítő intézkedéseket vezetett be. „Fontos, hogy robusztus védelmet fejlesszünk ki a gyors támadással szemben” – mondta Andy Wen, a Google Workspace biztonsági termékmenedzsmentért felelős vezető igazgatója.

Bár a hibát javították, az incidens rávilágít a nagy nyelvi modellek (LLM-ek) külső rendszerekhez való csatlakoztatásának lehetséges kockázataira. Ahogy a mesterséges intelligencia egyre mélyebben integrálódik az életünkbe és a munkánkba, a hackerek által kihasználható támadási felület is bővül.

A szakértők figyelmeztetnek, hogy a közvetett azonnali befecskendezés komoly fenyegetést jelenthet, lehetővé téve a támadók számára, hogy átvegyék az irányítást számos intelligens rendszer felett, az okosotthonoktól a vállalati infrastruktúráig.

„Az LLM külső adatforrásokhoz való csatlakoztatása hatékony eszköz, de ahogy az a mesterséges intelligencia esetében gyakran előfordul, a nagyobb teljesítmény nagyobb kockázattal is jár” – vonja le a következtetést Bargury.

Forrás: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Címke: NYITVA

Hozzászólás (0)

No data
No data

Ugyanebben a témában

Ugyanebben a kategóriában

Fedezze fel Vietnám egyetlen faluját, amely a világ 50 legszebb faluja között szerepel
Miért népszerűek idén a sárga csillaggal díszített piros zászlós lámpások?
Vietnam nyerte az Intervision 2025 zenei versenyt
Mu Cang Chaiban estig dugó van, a turisták özönlenek az érett rizs szezonjára vadászni

Ugyanattól a szerzőtől

Örökség

Ábra

Üzleti

No videos available

Hír

Politikai rendszer

Helyi

Termék