Volgens BGR is er in een nieuw onderzoeksrapport een alarmerende techniek gepubliceerd met de naam 'Fun-Tuning'. Hierbij wordt AI (kunstmatige intelligentie) zelf gebruikt om automatisch extreem effectieve prompt-injectieaanvallen te creëren die gericht zijn op andere geavanceerde AI-modellen, waaronder Gemini van Google.
Dankzij deze methode is het 'kraken' van AI sneller, goedkoper en eenvoudiger dan ooit. Dit markeert een nieuwe escalatie in de strijd tegen cyberbeveiliging met betrekking tot AI.
Het gevaar wanneer slechteriken AI gebruiken om AI te breken
Prompt injection is een techniek waarbij een aanvaller kwaadaardige instructies in de invoergegevens van een AI-model smokkelt (bijvoorbeeld via opmerkingen in de broncode of verborgen tekst op internet). Het doel is om de AI te 'misleiden' om voorgeprogrammeerde veiligheidsregels te omzeilen, wat ernstige gevolgen kan hebben, zoals het lekken van gevoelige gegevens, het verstrekken van valse informatie of het uitvoeren van andere kwaadaardige acties.
Hackers gebruiken AI om AI aan te vallen
FOTO: LINKEDIN-SCREENSHOT
Voorheen waren er veel complexe en tijdrovende handmatige tests nodig om dergelijke aanvallen succesvol uit te voeren, vooral op 'gesloten' modellen zoals Gemini of GPT-4.
Maar Fun-Tuning heeft de spelregels compleet veranderd. Ontwikkeld door een team van onderzoekers van verschillende universiteiten, maakt de methode slim gebruik van de tuning-application programming interface (API) die Google gratis aan Gemini-gebruikers ter beschikking stelt.
Door de subtiele reacties van het Gemini-model tijdens het tunen te analyseren (bijvoorbeeld hoe het reageert op fouten in de data), kan Fun-Tuning automatisch de meest effectieve 'prefixes' en 'suffixes' bepalen om een kwaadaardige opdracht te verbergen. Dit vergroot de kans aanzienlijk dat de AI gehoor geeft aan de kwaadaardige bedoelingen van de aanvaller.
Uit testresultaten blijkt dat Fun-Tuning een slagingspercentage van maar liefst 82% behaalt bij sommige Gemini-versies. Dit cijfer overtreft de minder dan 30% van de traditionele aanvalsmethoden.
Het gevaar van Fun-Tuning wordt nog groter door de lage kosten. Omdat Googles tuning-API gratis beschikbaar is, kunnen de rekenkosten voor een effectieve aanval al oplopen tot $ 10. Bovendien ontdekten de onderzoekers dat een aanval die voor één versie van Gemini is ontworpen, gemakkelijk succesvol kan worden toegepast op andere versies, wat de mogelijkheid van wijdverbreide aanvallen vergroot.
Google heeft bevestigd zich bewust te zijn van de dreiging die Fun-Tuning vormt, maar heeft nog geen commentaar gegeven op de vraag of het de werking van de tuning-API zal veranderen. De onderzoekers wijzen ook op het defensieve dilemma: het verwijderen van de informatie die Fun-Tuning uit het tuningproces exploiteert, zou de API minder bruikbaar maken voor legitieme ontwikkelaars. Omgekeerd zou het laten zoals het is een springplank blijven voor kwaadwillenden om te misbruiken.
De opkomst van Fun-Tuning is een duidelijke waarschuwing dat de confrontatie in cyberspace een nieuwe, complexere fase is ingegaan. AI is nu niet alleen een doelwit, maar ook een instrument en wapen in de handen van kwaadwillenden.
Bron: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Reactie (0)