Google spotyka się z krytyką po tym, jak odmówiło usunięcia poważnej luki w zabezpieczeniach Gemini, narzędzia sztucznej inteligencji (AI) głęboko zintegrowanego z ekosystemem Google Workspace. Według ekspertów ds. bezpieczeństwa, błąd może doprowadzić do wycieku poufnych informacji użytkownika do nieznajomych poprzez atak zwany „ASCII przemyt”.

Bliźnięta podatne na kod ukryty w tekście
Badacz bezpieczeństwa Viktor Markopoulos przetestował kilka popularnych modeli dużych języków (LLM) pod kątem ich odporności na ten atak. Wyniki pokazały, że Gemini, DeepSeek i Grok były podatne na ataki, natomiast ChatGPT, Claude i Copilot były lepiej chronione.
Przemyt ASCII to forma ataku, w której atakujący ukrywa kod zachęty lub polecenia w tekście, często o bardzo małej objętości lub specjalnie zakodowanym. Gdy użytkownik poprosi sztuczną inteligencję o podsumowanie lub analizę treści zawierającej ten ukryty kod, narzędzie sztucznej inteligencji przypadkowo odczyta i wykona złośliwy komunikat bez wiedzy użytkownika.

Gemini 3 przyciąga uwagę jeszcze przed premierą
Ryzyko wycieku poufnych danych w Google Workspace
Ponieważ Gemini jest bezpośrednio zintegrowane z usługami Gmail, Docs i Google Workspace, to ryzyko staje się szczególnie niepokojące: ukryty monit może spowodować, że sztuczna inteligencja automatycznie wyszuka informacje osobiste, dane kontaktowe lub poufne dokumenty, a następnie wyśle je poza system bez wiedzy użytkownika.
Markopoulos skontaktował się z Google, aby przedstawić swoje odkrycia, ilustrując je niewidocznym fragmentem kodu, który skłonił Gemini do udostępnienia linku do złośliwej witryny internetowej, tylko po to, aby „odzyskać telefon w obniżonej cenie”.
Google zaprzecza, że jest to luka w zabezpieczeniach
W opublikowanej odpowiedzi Google stwierdziło, że nie jest to luka w zabezpieczeniach, lecz forma ataku socjotechnicznego. Innymi słowy, firma uznała to za błąd spowodowany nieostrożną interakcją użytkownika, a nie za problem z systemem sztucznej inteligencji.
Odpowiedź ta sugeruje, że Google nie planuje w najbliższej przyszłości wypuszczenia poprawki dla Gemini, co oznacza, że użytkownicy powinni zachować większą ostrożność, korzystając ze sztucznej inteligencji do przetwarzania dokumentów, zwłaszcza tych zawierających poufne informacje lub pochodzących z niezweryfikowanych źródeł.
Rosnące obawy dotyczące bezpieczeństwa głęboko zintegrowanej sztucznej inteligencji
Incydent ten rodzi pytania o odpowiedzialność firm technologicznych w obliczu coraz większej integracji sztucznej inteligencji z platformami pracy i komunikacji. Chociaż Google podkreśla swoje zaangażowanie w „bezpieczeństwo użytkowników”, decyzja ta może wpłynąć na zaufanie do zabezpieczeń Gemini – zwłaszcza w środowisku korporacyjnym.
Według Android Authority
Źródło: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Komentarz (0)