
Luka ta pozwala atakującym wstrzykiwać złośliwe polecenia bezpośrednio do pamięci sztucznej inteligencji, zmieniając przydatną funkcję w trwałą broń do wykonywania dowolnego kodu (ilustracja: ST).
Według raportu firmy LayerX Security atak ten wykorzystywał lukę w zabezpieczeniach Cross-Site Request Forgery (CSRF) w celu wstrzyknięcia złośliwych poleceń do trwałej pamięci ChatGPT.
Funkcja „Pamięć”, pierwotnie zaprojektowana dla sztucznej inteligencji w celu zapamiętywania przydatnych szczegółów, takich jak nazwy użytkowników i preferencje dotyczące spersonalizowanych odpowiedzi, może teraz zostać „zepsuta”.
Gdy pamięć zostanie zainfekowana złośliwym oprogramowaniem, polecenia te zostaną zapisane na stałe — chyba że użytkownik ręcznie usunie je w ustawieniach — i będzie można je uruchamiać na wielu urządzeniach i sesjach.
„Ta luka w zabezpieczeniach jest szczególnie niebezpieczna, ponieważ jej celem jest trwała pamięć sztucznej inteligencji, a nie tylko sesja przeglądarki” – powiedziała Michelle Levy, dyrektor ds. badań nad bezpieczeństwem w firmie LayerX Security.
Levy wyjaśnił: „Mówiąc wprost, atakujący stosuje sztuczkę, aby „oszukać” sztuczkę, zmuszając ją do zapisania złośliwego polecenia w pamięci. Najbardziej niebezpieczne jest to, że to polecenie pozostanie na stałe w sztucznej inteligencji – nawet jeśli użytkownik zmieni komputer, wyloguje się i zaloguje ponownie, a nawet użyje innej przeglądarki”.
Później, gdy użytkownik złoży całkowicie normalne żądanie, może nieumyślnie aktywować złośliwe oprogramowanie. W rezultacie hakerzy mogą uruchamiać kod w sposób ukryty, kraść dane lub uzyskać większą kontrolę nad systemem.
Opisany scenariusz ataku jest dość prosty: najpierw użytkownik loguje się do ChatGPT Atlas. Zostaje oszukany i klika na złośliwy link, a następnie złośliwa strona internetowa potajemnie uruchamia żądanie CSRF, po cichu wstawiając złośliwe instrukcje do pamięci ChatGPT ofiary.
Wreszcie, gdy użytkownik wykona w pełni uzasadnione zapytanie, na przykład poprosi sztuczną inteligencję o napisanie kodu, zainfekowane „wspomnienia” zostaną uruchomione.
LayerX wskazuje, że problem pogłębia brak solidnych zabezpieczeń antyphishingowych w programie ChatGPT Atlas.
W testach obejmujących ponad 100 luk i witryn phishingowych, Atlasowi udało się zablokować jedynie 5,8% złośliwych stron internetowych.
Jest to wynik zdecydowanie zbyt skromny w porównaniu do przeglądarek Google Chrome (47%) i Microsoft Edge (53%). Oznacza to, że użytkownicy przeglądarki Atlas są „nawet o 90% bardziej narażeni” na ataki w porównaniu z tradycyjnymi przeglądarkami.
Odkrycie to jest kolejnym przykładem luki w zabezpieczeniach umożliwiającej szybkie wstrzyknięcie złośliwego oprogramowania, zademonstrowanej wcześniej przez NeuralTrust. Pokazuje to, że przeglądarki oparte na sztucznej inteligencji stają się nowym frontem ataków.
OpenAI uruchomiło przeglądarkę internetową ChatGPT Atlas na początku zeszłego tygodnia. Nic dziwnego, że OpenAI zintegrowało swój silnik sztucznej inteligencji ChatGPT z tą przeglądarką, zapewniając użytkownikom lepsze wsparcie podczas przeglądania stron internetowych.
Za każdym razem, gdy użytkownik kliknie wynik wyszukiwania w ChatGPT Atlas, tuż obok okna strony internetowej pojawi się okno dialogowe ChatGPT, umożliwiające zadanie pytań związanych z przeglądaną treścią, co pozwala zaoszczędzić czas czytania.
ChatGPT może również podsumowywać zawartość stron internetowych, edytować tekst podczas pisania wiadomości e-mail lub sugerować sposoby jego przepisania w celu lepszego dopasowania do kontekstu.
Source: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Komentarz (0)