
Sårbarheten "Zero Click" gör det till och med möjligt för hackare att kontrollera ChatGPT så att de agerar som de vill - Illustration: AFP
Det israeliska cybersäkerhetsföretaget Zenity har precis avslöjat den första sårbarheten "Zero Click" som upptäckts i OpenAI:s ChatGPT-tjänst.
Den här typen av attack kräver inte att användare utför några åtgärder som att klicka på länkar, öppna filer eller göra några avsiktliga interaktioner, men den kan fortfarande få åtkomst till konton och läcka känslig data.
Mikhail Bergori, medgrundare och teknisk chef för Zenity, förklarade direkt hur en hackare, helt enkelt genom att ha en användares e-postadress, kan kontrollera konversationer fullständigt – inklusive tidigare och framtida innehåll, ändra syftet med konversationer och till och med manipulera ChatGPT för att agera enligt hackarens önskemål.
I sin presentation visade forskarna att en komprometterad ChatGPT kan bli en "skadlig agent" som i smyg opererar mot användare. Hackare kan få ChatGPT att föreslå användare att ladda ner virusinfekterad programvara, erbjuda vilseledande affärsråd eller komma åt filer som är lagrade på Google Drive om användarens konto är anslutet. Allt detta sker utan användarens vetskap.
Sårbarheten åtgärdades först helt efter att Zenity meddelade OpenAI.
Förutom ChatGPT simulerade Zenity även flera liknande attacker riktade mot andra populära AI-assistentplattformar. På Microsofts Copilot Studio upptäckte forskare hur hela CRM-databaser kunde läckas.
När det gäller Salesforce Einstein kunde hackare skapa falska serviceförfrågningar för att omdirigera all kundkommunikation till e-postadresser de kontrollerade.
Google Gemini och Microsoft 365 Copilot förvandlades också till "fientliga agenter" som utförde nätfiskebedrägerier och läckte känslig information via e-postmeddelanden och kalenderhändelser.
I ett annat exempel utnyttjades även programvaruutvecklingsverktyget Cursor, när det integrerades med Jira MCP, för att stjäla programmerares inloggningsuppgifter genom falska "biljetter".
Zenity sa att vissa företag, som OpenAI och Microsoft, snabbt släppte patchar efter att ha blivit varnade. Vissa företag vägrade dock att åtgärda problemet och hävdade att det upptäckta beteendet var en "designfunktion" snarare än en säkerhetsbrist.
Enligt Mikhail Bergori är den största utmaningen idag att AI-assistenter inte bara utför enkla uppgifter, utan blir "digitala enheter" som representerar användare – kapabla att öppna mappar, skicka filer och komma åt e-postmeddelanden. Han varnar för att detta är som en "fristad" för hackare, eftersom det finns för många sårbarheter.
Ben Kaliger, medgrundare och VD för Zenity, betonade att företagets forskning visar att nuvarande säkerhetsmetoder inte längre är tillräckliga för hur AI-assistenter fungerar. Han uppmanade organisationer att ändra sitt tillvägagångssätt och investera i specialiserade lösningar för att kontrollera och övervaka dessa "agenters" aktiviteter.
Zenity grundades 2021. För närvarande har företaget cirka 110 anställda globalt, varav 70 arbetar på kontoret i Tel Aviv. Zenitys kunder inkluderar många Fortune 100-företag och till och med Fortune 5-företag.
Källa: https://tuoitre.vn/lo-hong-nghiem-trong-บน-chatgpt-va-loat-tro-ly-ai-nguoi-dung-bi-lua-dao-lo-thong-tin-20250811131018876.htm






Kommentar (0)