Sårbarheten "Zero Click" gör det till och med möjligt för hackare att kontrollera ChatGPT så att de agerar som de vill - Illustrationsfoto: AFP
Det israeliska cybersäkerhetsföretaget Zenity har just avslöjat den första "Zero Click"-sårbarheten som upptäckts i OpenAIs ChatGPT-tjänst.
Den här typen av attack kräver inte att användare utför någon åtgärd som att klicka på en länk, öppna en fil eller delta i någon avsiktlig interaktion, men kan fortfarande få åtkomst till konton och läcka känslig data.
Mikhail Bergori, medgrundare och teknisk chef för Zenity, demonstrerade på första hand hur en hackare med bara en användares e-postadress kunde ta fullständig kontroll över konversationer – inklusive tidigare och framtida innehåll, ändra syftet med konversationen och till och med manipulera ChatGPT för att agera till hackarens fördel.
I sin presentation visade forskarna att en komprometterad ChatGPT kunde förvandlas till en "skadlig aktör" som i hemlighet opererade mot användare. Hackare kunde få ChatGPT att föreslå användare att ladda ner virusinfekterad programvara, ge vilseledande affärsråd eller komma åt filer som lagrats på Google Drive om användarens konto är anslutet. Allt detta sker utan användarens vetskap.
Sårbarheten åtgärdades först helt efter att Zenity meddelade OpenAI.
Förutom ChatGPT har Zenity även demonstrerat liknande attacker mot andra populära AI-assistentplattformar. I Microsofts Copilot Studio upptäckte forskare ett sätt att läcka hela CRM-databaser.
För Salesforce Einstein kan hackare skapa falska serviceförfrågningar för att omdirigera all kundkommunikation till e-postadresser de kontrollerar.
Google Gemini och Microsoft 365 Copilot förvandlades också till "fientliga aktörer" som utförde nätfiskeattacker och läckte känslig information via e-postmeddelanden och kalenderhändelser.
I ett annat exempel utnyttjades även mjukvaruutvecklingsverktyget Cursor, när det integrerades med Jira MCP, för att stjäla utvecklaruppgifter genom falska "biljetter".
Zenity sa att vissa företag, som OpenAI och Microsoft, snabbt släppte patchar efter att ha blivit varnade. Andra vägrade dock att åtgärda problemet och hävdade att beteendet var en "designfunktion" snarare än en säkerhetsbrist.
Den stora utmaningen nu, enligt Mikhail Bergori, är att AI-assistenter inte bara utför enkla uppgifter, utan blir "digitala enheter" som representerar användare – kan öppna mappar, skicka filer och komma åt e-postmeddelanden. Han varnade för att detta är som ett "paradis" för hackare, med så många möjligheter att utnyttja dem.
Ben Kaliger, medgrundare och VD för Zenity, betonade att företagets forskning visar att nuvarande säkerhetsmetoder inte längre är lämpliga för hur AI-assistenter arbetar. Han uppmanade organisationer att ändra sitt tillvägagångssätt och investera i specialiserade lösningar för att kunna kontrollera och övervaka dessa "agenters" aktiviteter.
Zenity grundades 2021. Företaget har för närvarande cirka 110 anställda globalt, varav 70 arbetar på kontoret i Tel Aviv. Bland Zenitys kunder finns många Fortune 100- och till och med Fortune 5-företag.
Källa: https://tuoitre.vn/lo-hong-nghiem-trong-tren-chatgpt-va-loat-tro-ly-ai-nguoi-dung-bi-lua-dao-lo-thong-tin-20250811131018876.htm
Kommentar (0)