
Een geïnfecteerd document kan via ChatGPT gegevens lekken op Google Drive (Foto: Wired).
Het zorgwekkende is dat deze kwetsbaarheid geen enkele actie van de gebruiker vereist. Dit roept nieuwe waarschuwingen op over cyberbeveiliging in de context van modellen voor kunstmatige intelligentie (AI) die steeds meer verbonden zijn met persoonlijke gegevens.
'Vergiftigde' documenten leiden tot datalekken
Op de Black Hat-beveiligingsconferentie in Las Vegas (VS) op 6 augustus demonstreerden twee experts, Michael Bargury en Tamir Ishay Sharbat, een aanvalsmethode genaamd AgentFlayer .
Deze aanval maakt gebruik van een kwetsbaarheid in Connectors, een functie die ChatGPT verbindt met externe services zoals Google Drive, Gmail of Microsoft Agenda.
"Een gebruiker hoeft niets te doen om gecompromitteerd te raken of zijn gegevens te laten lekken", aldus Michael Bargury, CTO van beveiligingsbedrijf Zenity. "We hebben bewezen dat het volledig klikloos is."
De aanval begint met het delen van een "vergiftigd" document via de Google Drive van het slachtoffer. Het document bevat een kwaadaardige prompt van ongeveer 300 woorden, geschreven in wit lettertype van 1 punt – bijna onzichtbaar voor het blote oog, maar toch leesbaar voor de computer.
Op het eerste gezicht lijkt de tekst vermomd als vergadernotities, maar in werkelijkheid bevat het instructies voor ChatGPT om gevoelige API-sleutels te vinden en te extraheren uit het Google Drive-account van het slachtoffer.
In plaats van de inhoud samen te vatten zoals de gebruiker heeft gevraagd, dwingt deze verborgen prompt de AI om de gevonden API-sleutels via een Markdown-link naar een externe server te sturen. De gegevens worden geëxtraheerd als een afbeelding, waardoor de server alle informatie kan vastleggen.
OpenAI heeft het door, maar er blijven risico's bestaan
OpenAI implementeerde snel maatregelen na ontvangst van Bargury's rapport. "Het is belangrijk om robuuste verdedigingen te ontwikkelen tegen snelle malware-injectieaanvallen", aldus Andy Wen, senior director security product management bij Google Workspace.
Hoewel het incident is gepatcht, benadrukt het de potentiële risico's van het koppelen van grote taalmodellen (LLM's) aan externe systemen. Naarmate AI steeds meer geïntegreerd raakt in ons leven en werk, neemt ook het aanvalsoppervlak dat hackers kunnen exploiteren toe.
Deskundigen waarschuwen dat indirecte, snelle injectie een ernstige bedreiging kan vormen, waarmee aanvallers de controle kunnen overnemen van veel slimme systemen, van slimme huizen tot bedrijfsinfrastructuur.
“Het verbinden van LLM met externe databronnen is krachtig, maar zoals vaak het geval is met AI, brengt meer kracht ook meer risico’s met zich mee”, concludeert Bargury.
Bron: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Reactie (0)