Ifølge BGR har en ny forskningsrapport nettopp publisert en alarmerende teknikk kalt «Fun-Tuning», som bruker kunstig intelligens (AI) til automatisk å lage ekstremt effektive «prompt injection»-angrep rettet mot andre avanserte AI-modeller, inkludert Googles Gemini.
Metoden gjør det raskere, billigere og enklere enn noensinne å «knekke» AI, og markerer en ny eskalering i den AI-relaterte cybersikkerhetskrigen.
Faren når skurker bruker AI til å knekke AI
Prompt injection er en teknikk der en motstander sniker inn ondsinnede instruksjoner i inndataene til en AI-modell (f.eks. gjennom kommentarer i kildekoden, skjult tekst på nettet). Målet er å «lure» AI-en, tvinge den til å omgå forhåndsprogrammerte sikkerhetsregler, noe som fører til alvorlige konsekvenser som lekkasje av sensitive data, oppgivelse av falsk informasjon eller utførelse av annen farlig atferd.
Hackere bruker AI for å angripe AI
FOTO: LINKEDIN SKJERMBILDE
Tidligere krevde det ofte mye kompleks og tidkrevende manuell testing å kunne utføre disse angrepene, spesielt på «lukkede» modeller som Gemini eller GPT-4.
Men Fun-Tuning har endret alt fullstendig. Metoden, utviklet av et team av forskere fra flere universiteter, utnytter på en smart måte det svært finjusterende applikasjonsprogrammeringsgrensesnittet (API-et) som Google tilbyr gratis til Gemini-brukere.
Ved å analysere de subtile reaksjonene til Gemini-modellen under tuning (f.eks. hvordan den reagerer på feil i data), kan Fun-Tuning automatisk bestemme de mest effektive «prefiksene» og «suffiksene» for å maskere en ondsinnet kommando. Dette øker sannsynligheten for at AI-en vil etterkomme en angripers ondsinnede intensjoner betydelig.
Testresultater viser at Fun-Tuning oppnår en suksessrate på opptil 82 % på noen versjoner av Gemini, et tall som overgår de mindre enn 30 % av tradisjonelle angrepsmetoder.
Det som gjør Fun-Tuning enda farligere er den lave kostnaden. Siden Googles tuning-API er fritt tilgjengelig, kan beregningskostnaden for å lage et effektivt angrep være så lav som 10 dollar. Videre fant forskerne at et angrep designet for én versjon av Gemini enkelt kunne brukes på andre versjoner, noe som åpner for muligheten for omfattende angrep.
Google har bekreftet at de er klar over trusselen fra Fun-Tuning, men har foreløpig ikke kommentert om de vil endre hvordan tuning-API-et fungerer. Teamet påpeker også det defensive dilemmaet: å fjerne informasjonen som Fun-Tuning utnytter fra tuningprosessen vil gjøre API-et mindre nyttig for legitime utviklere. Omvendt vil det å la det være som det er fortsatt være et springbrett for skurker å utnytte.
Fremveksten av Fun-Tuning er en klar advarsel om at konfrontasjonen i cyberspace har gått inn i en ny, mer kompleks fase. AI er nå ikke bare et mål, men også et verktøy og våpen i hendene på ondsinnede aktører.
[annonse_2]
Kilde: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Kommentar (0)