Vietnam.vn - Nền tảng quảng bá Việt Nam

Hackere brukte kunstig intelligens til å angripe Googles Gemini.

Báo Thanh niênBáo Thanh niên30/03/2025

[annonse_1]

Ifølge BGR har en ny forskningsrapport nettopp avslørt en alarmerende teknikk kalt «Fun-Tuning», som bruker kunstig intelligens (KI) til automatisk å generere svært effektive «prompt injection»-angrep rettet mot andre avanserte KI-modeller, inkludert Googles Gemini.

Denne metoden gjør det raskere, billigere og enklere enn noen gang før å «hacke» AI, og markerer en ny eskalering i kampen mot cybersikkerhet som involverer AI.

Faren for at ondsinnede aktører bruker AI til å knekke AI.

Prompt injection er en teknikk der ondsinnede aktører i all hemmelighet setter inn skadelige instruksjoner i inndataene til en AI-modell (f.eks. gjennom kommentarer i kildekoden eller skjult tekst på nettet). Målet er å «lure» AI-en, og tvinge den til å ignorere forhåndsprogrammerte sikkerhetsregler, noe som fører til alvorlige konsekvenser som lekkasje av sensitive data, oppgivelse av feilinformasjon eller utførelse av andre farlige handlinger.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hackere bruker AI for å angripe AI.

FOTO: SKJERMBILDE FRA LINKEDIN

Tidligere krevde det ofte mye kompleks og tidkrevende manuell testing å kunne utføre disse angrepene, spesielt på «lukkede» modeller som Gemini eller GPT-4.

Men Fun-Tuning endret landskapet fullstendig. Denne metoden, som er utviklet av et team av forskere fra flere universiteter, utnytter på en smart måte det raffinerte applikasjonsprogrammeringsgrensesnittet (API-et) som Google tilbyr gratis til Gemini-brukere.

Ved å analysere de subtile responsene til Gemini-modellen under tuningprosessen (for eksempel hvordan den reagerer på feil i dataene), kan Fun-Tuning automatisk identifisere de mest effektive «prefiksene» og «suffiksene» for å maskere en ondsinnet setning. Dette øker sannsynligheten for at AI-en vil etterkomme angriperens ondsinnede hensikt betydelig.

Testresultater viser at Fun-Tuning oppnådde en suksessrate på opptil 82 % på noen versjoner av Gemini, et tall som er langt bedre enn de under 30 % som oppnås med tradisjonelle angrepsmetoder.

Det som øker faren med Fun-Tuning er den ekstremt lave utførelseskostnaden. Fordi Googles tuning-API tilbys gratis, kan beregningskostnaden for å lage et effektivt angrep være så lav som $10. Videre har forskere funnet ut at et angrep designet for én versjon av Gemini enkelt kan brukes på andre versjoner, noe som åpner for risikoen for omfattende angrep.

Google har bekreftet at de er klar over trusselen fra Fun-Tuning-teknikken, men har foreløpig ikke kommentert om den vil endre hvordan tuning-API-et fungerer. Forskerteamet påpekte også vanskeligheten med å forsvare seg mot dette: Hvis informasjonen som utnyttes av Fun-Tuning fjernes fra tuningprosessen, vil API-et bli mindre nyttig for legitime utviklere. Omvendt, hvis det forblir uendret, vil det fortsette å være et springbrett for ondsinnede aktører å utnytte.

Fremveksten av Fun-Tuning er en klar advarsel som indikerer at konfrontasjonen i cyberspace har gått inn i en ny, mer kompleks fase. AI er nå ikke bare et mål, men også et verktøy og våpen i hendene på ondsinnede aktører.


[annonse_2]
Kilde: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme emne

I samme kategori

Av samme forfatter

Arv

Figur

Bedrifter

Aktuelle saker

Det politiske systemet

Lokalt

Produkt

Happy Vietnam
Tro

Tro

Vietnam har millioner av flagg.

Vietnam har millioner av flagg.

Hanoi forbereder seg til 80-årsjubileet for nasjonaldagen.

Hanoi forbereder seg til 80-årsjubileet for nasjonaldagen.