
Deze kwetsbaarheid stelt aanvallers in staat om kwaadaardige commando's rechtstreeks in het geheugen van de AI te injecteren, waardoor een nuttige functie verandert in een permanent wapen voor het uitvoeren van willekeurige code (Illustratieve afbeelding: ST).
Volgens een rapport van LayerX Security maakte deze aanval gebruik van een Cross-Site Request Forgery (CSRF)-kwetsbaarheid om kwaadaardige commando's in het permanente geheugen van ChatGPT te injecteren.
De "Geheugen"-functie, oorspronkelijk ontworpen om AI nuttige details zoals gebruikersnamen en voorkeuren te laten onthouden voor gepersonaliseerde antwoorden, kan nu "kapot" gaan.
Zodra het geheugen is geïnfecteerd met malware, blijven deze commando's permanent aanwezig – tenzij de gebruiker ze handmatig verwijdert via de instellingen – en kunnen ze op meerdere apparaten en in meerdere sessies worden uitgevoerd.
"Wat deze kwetsbaarheid bijzonder gevaarlijk maakt, is dat deze zich richt op het permanente geheugen van de AI, en niet alleen op de browsersessie", aldus Michelle Levy, directeur beveiligingsonderzoek bij LayerX Security.
Levy legde uit: "Simpel gezegd gebruikt de aanvaller een truc om de AI te 'misleiden', waardoor deze een kwaadaardig commando in het geheugen schrijft. Het gevaarlijkste is dat dit commando permanent in de AI blijft staan – zelfs als de gebruiker van computer wisselt, uitlogt en weer inlogt, of zelfs een andere browser gebruikt."
Later, wanneer een gebruiker een volkomen normale aanvraag doet, kan hij of zij onbedoeld de malware activeren. Hierdoor kunnen hackers ongemerkt code uitvoeren, gegevens stelen of meer controle over het systeem verkrijgen.
Het beschreven aanvalsscenario is vrij eenvoudig: eerst logt de gebruiker in op ChatGPT Atlas. Hij of zij wordt verleid om op een kwaadaardige link te klikken, waarna de kwaadaardige website in het geheim een CSRF-verzoek uitvoert en stilletjes kwaadaardige instructies in het ChatGPT-geheugen van het slachtoffer invoegt.
Ten slotte, wanneer een gebruiker een volkomen legitieme vraag stelt, bijvoorbeeld de AI vragen om code te schrijven, worden de geïnfecteerde "geheugens" geactiveerd.
LayerX wijst erop dat het probleem wordt verergerd door het gebrek aan robuuste anti-phishingmaatregelen bij ChatGPT Atlas.
Bij tests met meer dan 100 kwetsbaarheden en phishingwebsites slaagde Atlas er slechts in om 5,8% van de kwaadwillende websites te blokkeren.
Dit cijfer is veel te laag in vergelijking met Google Chrome (47%) of Microsoft Edge (53%), waardoor Atlas-gebruikers "tot 90% kwetsbaarder" zijn voor aanvallen dan gebruikers van traditionele browsers.
Deze ontdekking volgt op een andere kwetsbaarheid voor snelle malware-injectie die eerder door NeuralTrust werd aangetoond, wat aantoont dat AI-browsers een nieuw aanvalsfront aan het worden zijn.
OpenAI lanceerde begin vorige week de ChatGPT Atlas-webbrowser. Zoals verwacht heeft OpenAI zijn ChatGPT-engine voor kunstmatige intelligentie in deze browser geïntegreerd, wat gebruikers betere ondersteuning biedt tijdens het browsen op het web.
Wanneer een gebruiker op een zoekresultaat in ChatGPT Atlas klikt, verschijnt er een ChatGPT-dialoogvenster direct naast het webpaginavenster, waarmee ze vragen kunnen stellen over de bekeken inhoud, wat leestijd bespaart.
ChatGPT kan ook websitecontent samenvatten, tekst bewerken bij het opstellen van e-mails of suggesties doen om de tekst beter aan te passen aan de context.
Bron: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Reactie (0)