Ifølge BGR har en ny forskningsrapport nettopp publisert en alarmerende teknikk kalt «Fun-Tuning», der man bruker kunstig intelligens (AI) til å automatisk lage ekstremt effektive «prompt injection»-angrep rettet mot andre avanserte AI-modeller, inkludert Googles Gemini.
Metoden gjør det raskere, billigere og enklere enn noensinne å «knekke» AI, og markerer en ny eskalering i den AI-relaterte cybersikkerhetskrigen.
Faren når skurker bruker AI til å knekke AI
Prompt injection er en teknikk der en motstander sniker inn ondsinnede instruksjoner i inndataene til en AI-modell (f.eks. via kommentarer i kildekoden, skjult tekst på nettet). Målet er å «lure» AI-en til å omgå forhåndsprogrammerte sikkerhetsregler, noe som fører til alvorlige konsekvenser som å lekke sensitive data, oppgi falsk informasjon eller utføre andre ondsinnede handlinger.
Hackere bruker AI for å angripe AI
FOTO: LINKEDIN SKJERMBILDE
Tidligere krevde det ofte mye kompleks og tidkrevende manuell testing å kunne utføre disse angrepene, spesielt på «lukkede» modeller som Gemini eller GPT-4.
Men Fun-Tuning har endret alt fullstendig. Metoden, som er utviklet av et team av forskere fra flere universiteter, utnytter på en smart måte selve tuning-applikasjonsprogrammeringsgrensesnittet (API-et) som Google tilbyr gratis til Gemini-brukere.
Ved å analysere de subtile reaksjonene til Gemini-modellen under tuning (f.eks. hvordan den reagerer på feil i dataene), kan Fun-Tuning automatisk bestemme de mest effektive «prefiksene» og «suffiksene» for å skjule en ondsinnet kommando. Dette øker sannsynligheten for at AI-en vil etterkomme angriperens ondsinnede intensjoner betydelig.
Testresultater viser at Fun-Tuning oppnår en suksessrate på opptil 82 % på noen versjoner av Gemini, et tall som overgår de mindre enn 30 % av tradisjonelle angrepsmetoder.
Noe som øker faren med Fun-Tuning er den lave kostnaden. Siden Googles tuning-API er fritt tilgjengelig, kan beregningskostnaden for å lage et effektivt angrep være så lav som 10 dollar. Videre fant forskerne at et angrep designet for én versjon av Gemini enkelt kunne brukes på andre versjoner, noe som åpner for muligheten for omfattende angrep.
Google har bekreftet at de er klar over trusselen fra Fun-Tuning, men har foreløpig ikke kommentert om det vil endre hvordan tuning-API-et fungerer. Forskerne peker også på det defensive dilemmaet: å fjerne informasjonen som Fun-Tuning utnytter fra tuningprosessen vil gjøre API-et mindre nyttig for legitime utviklere. Omvendt vil det å la det være som det er fortsatt være et springbrett for skurker å utnytte.
Fremveksten av Fun-Tuning er en klar advarsel om at konfrontasjonen i cyberspace har gått inn i en ny, mer kompleks fase. AI er nå ikke bare et mål, men også et verktøy og våpen i hendene på ondsinnede aktører.
[annonse_2]
Kilde: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Kommentar (0)