Funkcja pamięci długoterminowej ChatGPT to nowa funkcja wprowadzona przez OpenAI w lutym 2024 r. i rozszerzona we wrześniu.
Niedawno badacz ds. bezpieczeństwa Johann Rehberger odkrył poważną lukę w zabezpieczeniach związaną z tą funkcją.
Podobno ta nowa funkcja pozwala chatbotom przechowywać informacje z poprzednich rozmów. Eliminuje to konieczność ponownego wprowadzania przez użytkowników takich informacji, jak wiek, zainteresowania czy opinie osobiste za każdym razem, gdy rozmawiają na czacie. Jednak ta właśnie funkcja stała się podatnością, którą atakujący mogą wykorzystać.

Johann Rehberger zwrócił uwagę, że hakerzy mogą stosować techniki szybkiego wstrzykiwania (ang. prompt injection) – wszczepiając złośliwe instrukcje do pamięci sztucznej inteligencji, zmuszając ją do wykonywania poleceń. Polecenia te byłyby przekazywane za pośrednictwem niezaufanych treści, takich jak e-maile, dokumenty czy strony internetowe.
Po zapisaniu tych fałszywych wspomnień, sztuczna inteligencja będzie nadal wykorzystywać je jako prawdziwe informacje w rozmowach z użytkownikiem. Może to prowadzić do nieautoryzowanego gromadzenia i wykorzystywania danych osobowych użytkowników.
Rehberger podał konkretny przykład, wysyłając link zawierający złośliwy obraz, który powodował, że ChatGPT zapisywał fałszywą pamięć. Informacja ta miała wpływ na późniejsze odpowiedzi ChatGPT. Co ważne, wszystkie dane wprowadzane przez użytkownika były również przesyłane na serwer hakera.
W związku z tym, aby uruchomić atak, haker musi jedynie przekonać użytkowników ChatGPT do kliknięcia linku zawierającego złośliwe obrazy. Następnie wszystkie rozmowy użytkownika z ChatGPT zostaną przekierowane na serwer atakującego bez pozostawiania śladów.
W maju 2024 roku, po odkryciu luki, Rehberger zgłosił ją do OpenAi, ale firma zignorowała ją, uznając za lukę w zabezpieczeniach. Po otrzymaniu dowodów na możliwość kradzieży danych użytkownika, firma opublikowała tymczasową łatkę do internetowej wersji ChatGPT.
Chociaż problem został tymczasowo rozwiązany, Rehberger podkreślił, że niezaufana treść nadal może wykorzystywać mechanizm szybkiego wstrzykiwania kodu (prompt injection) do wstawiania fałszywych informacji do pamięci długotrwałej ChatGPT. Oznacza to, że w niektórych przypadkach hakerzy mogą nadal wykorzystywać tę lukę do przechowywania złośliwych wspomnień w celu trwałej kradzieży danych osobowych.
OpenAI zaleca użytkownikom regularne sprawdzanie przechowywanych danych ChatGPT w celu wykrycia wszelkich dezinformacji. Firma udostępnia również szczegółowe instrukcje dotyczące zarządzania przechowywanymi danymi i ich usuwania w narzędziu.
Źródło: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Komentarz (0)