Vietnam.vn - Nền tảng quảng bá Việt Nam

Hakerzy wykorzystali sztuczną inteligencję do ataku na Gemini firmy Google.

Báo Thanh niênBáo Thanh niên30/03/2025

[reklama_1]

Według BGR , nowy raport badawczy właśnie ujawnił niepokojącą technikę zwaną „Fun-Tuning”, która wykorzystuje sztuczną inteligencję (AI) do automatycznego generowania niezwykle skutecznych ataków typu prompt injection, wymierzonych w inne zaawansowane modele AI, w tym Gemini firmy Google.

Ta metoda sprawia, że ​​„hakowanie” sztucznej inteligencji jest szybsze, tańsze i łatwiejsze niż kiedykolwiek wcześniej, co oznacza nową eskalację w bitwie o cyberbezpieczeństwo związane ze sztuczną inteligencją.

Niebezpieczeństwo związane ze sztuczną inteligencją, która wykorzystuje ją w celu jej złamania.

Wstrzykiwanie kodu (promp injection) to technika, w której złośliwi aktorzy potajemnie wprowadzają szkodliwe instrukcje do danych wejściowych modelu sztucznej inteligencji (np. poprzez komentarze w kodzie źródłowym, ukryty tekst w internecie). Celem jest „oszukanie” sztucznej inteligencji, zmuszając ją do ignorowania zaprogramowanych reguł bezpieczeństwa, co może prowadzić do poważnych konsekwencji, takich jak wyciek wrażliwych danych, podanie dezinformacji lub wykonanie innych niebezpiecznych działań.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hakerzy wykorzystują sztuczną inteligencję do atakowania sztucznej inteligencji.

ZDJĘCIE: ZRZUT EKRANU Z LINKEDIN

Wcześniej skuteczne przeprowadzenie tych ataków, zwłaszcza na „zamkniętych” modelach, takich jak Gemini czy GPT-4, często wymagało wielu złożonych i czasochłonnych testów ręcznych.

Jednak Fun-Tuning całkowicie odmienił sytuację. Opracowana przez zespół badaczy z wielu uniwersytetów, metoda ta sprytnie wykorzystuje udoskonalony interfejs programowania aplikacji (API), który Google udostępnia bezpłatnie użytkownikom Gemini.

Analizując subtelne reakcje modelu Gemini podczas procesu dostrajania (na przykład jego reakcję na błędy w danych), Fun-Tuning może automatycznie zidentyfikować najskuteczniejsze „prefiksy” i „sufiksy” w celu zamaskowania złośliwego komunikatu. To znacznie zwiększa prawdopodobieństwo, że sztuczna inteligencja podporządkuje się złośliwym zamiarom atakującego.

Wyniki testów pokazują, że Fun-Tuning osiągnął skuteczność na poziomie aż 82% w niektórych wersjach Gemini, co jest wynikiem znacznie lepszym od tradycyjnych metod ataków, których skuteczność nie przekracza 30%.

Niebezpieczeństwo związane z Fun-Tuning zwiększa jego wyjątkowo niski koszt wykonania. Ponieważ API Google do tuningu jest udostępniane bezpłatnie, koszt obliczeniowy stworzenia skutecznego ataku może wynieść zaledwie 10 dolarów. Co więcej, badacze odkryli, że atak zaprojektowany dla jednej wersji Gemini można z łatwością skutecznie zastosować w innych wersjach, co zwiększa ryzyko szeroko zakrojonych ataków.

Google potwierdziło, że jest świadome zagrożenia, jakie stwarza technika Fun-Tuning, ale nie skomentowało jeszcze, czy zmieni ona sposób działania interfejsu API dostrajania. Zespół badawczy zwrócił również uwagę na trudności w obronie przed tym zagrożeniem: jeśli informacje wykorzystywane przez Fun-Tuning zostaną usunięte z procesu dostrajania, interfejs API stanie się mniej użyteczny dla uczciwych programistów. Z drugiej strony, jeśli pozostanie niezmieniony, nadal będzie stanowił platformę do ataków dla cyberprzestępców.

Pojawienie się Fun-Tuningu to wyraźne ostrzeżenie, wskazujące, że konfrontacja w cyberprzestrzeni wkroczyła w nową, bardziej złożoną fazę. Sztuczna inteligencja jest teraz nie tylko celem, ale także narzędziem i bronią w rękach cyberprzestępców.



Źródło: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Nieporządny dzieciak

Nieporządny dzieciak

WITAMY STATEK

WITAMY STATEK

Rodzina, co?

Rodzina, co?