Vietnam.vn - Nền tảng quảng bá Việt Nam

Hackere bruker kunstig intelligens til å angripe Googles Gemini

Báo Thanh niênBáo Thanh niên30/03/2025

[annonse_1]

Ifølge BGR har en ny forskningsrapport nettopp publisert en alarmerende teknikk kalt «Fun-Tuning», som bruker kunstig intelligens (AI) til automatisk å lage ekstremt effektive «prompt injection»-angrep rettet mot andre avanserte AI-modeller, inkludert Googles Gemini.

Metoden gjør det raskere, billigere og enklere enn noensinne å «knekke» AI, og markerer en ny eskalering i den AI-relaterte cybersikkerhetskrigen.

Faren når skurker bruker AI til å knekke AI

Prompt injection er en teknikk der en motstander sniker inn ondsinnede instruksjoner i inndataene til en AI-modell (f.eks. gjennom kommentarer i kildekoden, skjult tekst på nettet). Målet er å «lure» AI-en, tvinge den til å omgå forhåndsprogrammerte sikkerhetsregler, noe som fører til alvorlige konsekvenser som lekkasje av sensitive data, oppgivelse av falsk informasjon eller utførelse av annen farlig atferd.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hackere bruker AI for å angripe AI

FOTO: LINKEDIN SKJERMBILDE

Tidligere krevde det ofte mye kompleks og tidkrevende manuell testing å kunne utføre disse angrepene, spesielt på «lukkede» modeller som Gemini eller GPT-4.

Men Fun-Tuning har endret alt fullstendig. Metoden, utviklet av et team av forskere fra flere universiteter, utnytter på en smart måte det svært finjusterende applikasjonsprogrammeringsgrensesnittet (API-et) som Google tilbyr gratis til Gemini-brukere.

Ved å analysere de subtile reaksjonene til Gemini-modellen under tuning (f.eks. hvordan den reagerer på feil i data), kan Fun-Tuning automatisk bestemme de mest effektive «prefiksene» og «suffiksene» for å maskere en ondsinnet kommando. Dette øker sannsynligheten for at AI-en vil etterkomme en angripers ondsinnede intensjoner betydelig.

Testresultater viser at Fun-Tuning oppnår en suksessrate på opptil 82 % på noen versjoner av Gemini, et tall som overgår de mindre enn 30 % av tradisjonelle angrepsmetoder.

Det som gjør Fun-Tuning enda farligere er den lave kostnaden. Siden Googles tuning-API er fritt tilgjengelig, kan beregningskostnaden for å lage et effektivt angrep være så lav som 10 dollar. Videre fant forskerne at et angrep designet for én versjon av Gemini enkelt kunne brukes på andre versjoner, noe som åpner for muligheten for omfattende angrep.

Google har bekreftet at de er klar over trusselen fra Fun-Tuning, men har foreløpig ikke kommentert om de vil endre hvordan tuning-API-et fungerer. Teamet påpeker også det defensive dilemmaet: å fjerne informasjonen som Fun-Tuning utnytter fra tuningprosessen vil gjøre API-et mindre nyttig for legitime utviklere. Omvendt vil det å la det være som det er fortsatt være et springbrett for skurker å utnytte.

Fremveksten av Fun-Tuning er en klar advarsel om at konfrontasjonen i cyberspace har gått inn i en ny, mer kompleks fase. AI er nå ikke bare et mål, men også et verktøy og våpen i hendene på ondsinnede aktører.


[annonse_2]
Kilde: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Kommentar (0)

No data
No data

I samme emne

I samme kategori

Ville solsikker farger fjellbyen Da Lat gul i årets vakreste årstid
G-Dragon eksploderte med publikum under opptredenen sin i Vietnam
Kvinnelig fan har på seg brudekjole på G-Dragon-konsert i Hung Yen
Fascinert av skjønnheten i landsbyen Lo Lo Chai i bokhveteblomstsesongen

Av samme forfatter

Arv

Figur

Forretninger

Fascinert av skjønnheten i landsbyen Lo Lo Chai i bokhveteblomstsesongen

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt