Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Hackere bruker kunstig intelligens til å angripe Googles Gemini

Báo Thanh niênBáo Thanh niên30/03/2025

[annonse_1]

Ifølge BGR har en ny forskningsrapport nettopp publisert en alarmerende teknikk kalt «Fun-Tuning», der man bruker kunstig intelligens (AI) til å automatisk lage ekstremt effektive «prompt injection»-angrep rettet mot andre avanserte AI-modeller, inkludert Googles Gemini.

Metoden gjør det raskere, billigere og enklere enn noensinne å «knekke» AI, og markerer en ny eskalering i den AI-relaterte cybersikkerhetskrigen.

Faren når skurker bruker AI til å knekke AI

Prompt injection er en teknikk der en motstander sniker inn ondsinnede instruksjoner i inndataene til en AI-modell (f.eks. via kommentarer i kildekoden, skjult tekst på nettet). Målet er å «lure» AI-en til å omgå forhåndsprogrammerte sikkerhetsregler, noe som fører til alvorlige konsekvenser som å lekke sensitive data, oppgi falsk informasjon eller utføre andre ondsinnede handlinger.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hackere bruker AI for å angripe AI

FOTO: LINKEDIN SKJERMBILDE

Tidligere krevde det ofte mye kompleks og tidkrevende manuell testing å kunne utføre disse angrepene, spesielt på «lukkede» modeller som Gemini eller GPT-4.

Men Fun-Tuning har endret alt fullstendig. Metoden, som er utviklet av et team av forskere fra flere universiteter, utnytter på en smart måte selve tuning-applikasjonsprogrammeringsgrensesnittet (API-et) som Google tilbyr gratis til Gemini-brukere.

Ved å analysere de subtile reaksjonene til Gemini-modellen under tuning (f.eks. hvordan den reagerer på feil i dataene), kan Fun-Tuning automatisk bestemme de mest effektive «prefiksene» og «suffiksene» for å skjule en ondsinnet kommando. Dette øker sannsynligheten for at AI-en vil etterkomme angriperens ondsinnede intensjoner betydelig.

Testresultater viser at Fun-Tuning oppnår en suksessrate på opptil 82 % på noen versjoner av Gemini, et tall som overgår de mindre enn 30 % av tradisjonelle angrepsmetoder.

Noe som øker faren med Fun-Tuning er den lave kostnaden. Siden Googles tuning-API er fritt tilgjengelig, kan beregningskostnaden for å lage et effektivt angrep være så lav som 10 dollar. Videre fant forskerne at et angrep designet for én versjon av Gemini enkelt kunne brukes på andre versjoner, noe som åpner for muligheten for omfattende angrep.

Google har bekreftet at de er klar over trusselen fra Fun-Tuning, men har foreløpig ikke kommentert om det vil endre hvordan tuning-API-et fungerer. Forskerne peker også på det defensive dilemmaet: å fjerne informasjonen som Fun-Tuning utnytter fra tuningprosessen vil gjøre API-et mindre nyttig for legitime utviklere. Omvendt vil det å la det være som det er fortsatt være et springbrett for skurker å utnytte.

Fremveksten av Fun-Tuning er en klar advarsel om at konfrontasjonen i cyberspace har gått inn i en ny, mer kompleks fase. AI er nå ikke bare et mål, men også et verktøy og våpen i hendene på ondsinnede aktører.


[annonse_2]
Kilde: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Kommentar (0)

No data
No data

I samme emne

I samme kategori

Hanois gamleby tar på seg en ny «kjole» og ønsker midthøstfestivalen strålende velkommen
Besøkende drar garn, tramper i gjørme for å fange sjømat og griller den velduftende i brakkvannslagunen i Sentral-Vietnam
Y Ty er strålende med den gylne fargen av moden rissesong
Hang Ma Old Street «skifter klær» for å ønske midthøstfestivalen velkommen

Av samme forfatter

Arv

Figur

Forretninger

No videos available

Nyheter

Det politiske systemet

Lokalt

Produkt