Według BGR , w nowym raporcie badawczym opublikowano alarmującą technikę zwaną „Fun-Tuning”, która wykorzystuje sztuczną inteligencję (AI) do automatycznego tworzenia niezwykle skutecznych ataków typu instant injection, wymierzonych w inne zaawansowane modele AI, w tym Gemini firmy Google.
Metoda ta sprawia, że „łamanie” sztucznej inteligencji staje się szybsze, tańsze i łatwiejsze niż kiedykolwiek, co oznacza nową eskalację w wojnie o cyberbezpieczeństwo związane ze sztuczną inteligencją.
Niebezpieczeństwo, jakie niesie ze sobą wykorzystywanie sztucznej inteligencji przez złoczyńców do jej niszczenia
Wstrzykiwanie kodu (promp injection) to technika, w której atakujący przemyca złośliwe instrukcje do danych wejściowych modelu sztucznej inteligencji (np. poprzez komentarze w kodzie źródłowym, ukryty tekst w internecie). Celem jest „oszukanie” sztucznej inteligencji, zmuszając ją do obejścia wstępnie zaprogramowanych zasad bezpieczeństwa, co może prowadzić do poważnych konsekwencji, takich jak wyciek wrażliwych danych, podanie fałszywych informacji lub inne niebezpieczne zachowania.
Hakerzy wykorzystują sztuczną inteligencję do atakowania sztucznej inteligencji
ZDJĘCIE: ZRZUT EKRANU LINKEDIN
Wcześniej skuteczne przeprowadzenie tego typu ataków, zwłaszcza na „zamkniętych” modelach, takich jak Gemini czy GPT-4, często wymagało wielu złożonych i czasochłonnych testów ręcznych.
Ale Fun-Tuning całkowicie odmienił zasady gry. Metoda, opracowana przez zespół badaczy z wielu uniwersytetów, sprytnie wykorzystuje ten sam interfejs programowania aplikacji (API), który Google udostępnia bezpłatnie użytkownikom Gemini.
Analizując subtelne reakcje modelu Gemini podczas dostrajania (np. jak reaguje na błędy w danych), Fun-Tuning może automatycznie określić najskuteczniejsze „prefiksy” i „sufiksy” w celu zamaskowania złośliwego polecenia. To znacznie zwiększa prawdopodobieństwo, że sztuczna inteligencja podporządkuje się złośliwym intencjom atakującego.
Wyniki testów pokazują, że Fun-Tuning osiąga skuteczność na poziomie aż 82% w niektórych wersjach Gemini, co przewyższa skuteczność tradycyjnych metod ataków, która wynosi mniej niż 30%.
Tym, co czyni Fun-Tuning jeszcze bardziej niebezpiecznym, jest jego niski koszt. Ponieważ API Google do tuningu jest dostępne bezpłatnie, koszt obliczeniowy stworzenia skutecznego ataku może wynieść zaledwie 10 dolarów. Co więcej, badacze odkryli, że atak zaprojektowany dla jednej wersji Gemini można z łatwością skutecznie zastosować w innych wersjach, co otwiera możliwość przeprowadzenia szeroko zakrojonych ataków.
Google potwierdziło, że jest świadome zagrożenia, jakie stwarza Fun-Tuning, ale nie skomentowało jeszcze, czy zmieni sposób działania API dostrajania. Zespół zwraca również uwagę na dylemat obronny: usunięcie informacji wykorzystywanych przez Fun-Tuning z procesu dostrajania uczyniłoby API mniej użytecznym dla uczciwych programistów. Z drugiej strony, pozostawienie go bez zmian nadal stanowiłoby trampolinę do ataków dla cyberprzestępców.
Pojawienie się Fun-Tuningu to wyraźne ostrzeżenie, że konfrontacja w cyberprzestrzeni wkroczyła w nową, bardziej złożoną fazę. Sztuczna inteligencja jest teraz nie tylko celem, ale także narzędziem i bronią w rękach złych aktorów.
Źródło: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Komentarz (0)