Według BGR , nowy raport badawczy właśnie ujawnił niepokojącą technikę zwaną „Fun-Tuning”, która wykorzystuje sztuczną inteligencję (AI) do automatycznego generowania niezwykle skutecznych ataków typu prompt injection, wymierzonych w inne zaawansowane modele AI, w tym Gemini firmy Google.
Ta metoda sprawia, że „hakowanie” sztucznej inteligencji jest szybsze, tańsze i łatwiejsze niż kiedykolwiek wcześniej, co oznacza nową eskalację w bitwie o cyberbezpieczeństwo związane ze sztuczną inteligencją.
Niebezpieczeństwo związane ze sztuczną inteligencją, która wykorzystuje ją w celu jej złamania.
Wstrzykiwanie kodu (promp injection) to technika, w której złośliwi aktorzy potajemnie wprowadzają szkodliwe instrukcje do danych wejściowych modelu sztucznej inteligencji (np. poprzez komentarze w kodzie źródłowym, ukryty tekst w internecie). Celem jest „oszukanie” sztucznej inteligencji, zmuszając ją do ignorowania zaprogramowanych reguł bezpieczeństwa, co może prowadzić do poważnych konsekwencji, takich jak wyciek wrażliwych danych, podanie dezinformacji lub wykonanie innych niebezpiecznych działań.
Hakerzy wykorzystują sztuczną inteligencję do atakowania sztucznej inteligencji.
ZDJĘCIE: ZRZUT EKRANU Z LINKEDIN
Wcześniej skuteczne przeprowadzenie tych ataków, zwłaszcza na „zamkniętych” modelach, takich jak Gemini czy GPT-4, często wymagało wielu złożonych i czasochłonnych testów ręcznych.
Jednak Fun-Tuning całkowicie odmienił sytuację. Opracowana przez zespół badaczy z wielu uniwersytetów, metoda ta sprytnie wykorzystuje udoskonalony interfejs programowania aplikacji (API), który Google udostępnia bezpłatnie użytkownikom Gemini.
Analizując subtelne reakcje modelu Gemini podczas procesu dostrajania (na przykład jego reakcję na błędy w danych), Fun-Tuning może automatycznie zidentyfikować najskuteczniejsze „prefiksy” i „sufiksy” w celu zamaskowania złośliwego komunikatu. To znacznie zwiększa prawdopodobieństwo, że sztuczna inteligencja podporządkuje się złośliwym zamiarom atakującego.
Wyniki testów pokazują, że Fun-Tuning osiągnął skuteczność na poziomie aż 82% w niektórych wersjach Gemini, co jest wynikiem znacznie lepszym od tradycyjnych metod ataków, których skuteczność nie przekracza 30%.
Niebezpieczeństwo związane z Fun-Tuning zwiększa jego wyjątkowo niski koszt wykonania. Ponieważ API Google do tuningu jest udostępniane bezpłatnie, koszt obliczeniowy stworzenia skutecznego ataku może wynieść zaledwie 10 dolarów. Co więcej, badacze odkryli, że atak zaprojektowany dla jednej wersji Gemini można z łatwością skutecznie zastosować w innych wersjach, co zwiększa ryzyko szeroko zakrojonych ataków.
Google potwierdziło, że jest świadome zagrożenia, jakie stwarza technika Fun-Tuning, ale nie skomentowało jeszcze, czy zmieni ona sposób działania interfejsu API dostrajania. Zespół badawczy zwrócił również uwagę na trudności w obronie przed tym zagrożeniem: jeśli informacje wykorzystywane przez Fun-Tuning zostaną usunięte z procesu dostrajania, interfejs API stanie się mniej użyteczny dla uczciwych programistów. Z drugiej strony, jeśli pozostanie niezmieniony, nadal będzie stanowił platformę do ataków dla cyberprzestępców.
Pojawienie się Fun-Tuningu to wyraźne ostrzeżenie, wskazujące, że konfrontacja w cyberprzestrzeni wkroczyła w nową, bardziej złożoną fazę. Sztuczna inteligencja jest teraz nie tylko celem, ale także narzędziem i bronią w rękach cyberprzestępców.
Źródło: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Komentarz (0)