Funkcja pamięci długoterminowej ChatGPT to nowa funkcja wprowadzona przez OpenAI w lutym 2024 r. i rozszerzona we wrześniu.
Niedawno badacz ds. bezpieczeństwa Johann Rehberger ujawnił poważną lukę w zabezpieczeniach związaną z tą funkcją.
Wiadomo, że ta nowa funkcja pomaga chatbotom przechowywać informacje z poprzednich rozmów. Dzięki temu użytkownicy nie muszą za każdym razem wprowadzać ponownie informacji, takich jak wiek, zainteresowania czy poglądy osobiste. Jednak ta luka stała się słabym punktem dla atakujących.
Johann Rehberger wykazał, że hakerzy mogli wykorzystać technikę zwaną „szybkim wstrzyknięciem” (prompt injection) – wklejając złośliwe instrukcje do pamięci, zmuszając sztuczną inteligencję do ich wykonania. Polecenia te byłyby przekazywane za pośrednictwem niezaufanych treści, takich jak e-maile, dokumenty czy strony internetowe.
Gdy te fałszywe wspomnienia zostaną zapisane, sztuczna inteligencja będzie nadal wykorzystywać je jako prawdziwe informacje w rozmowach z użytkownikami, co może prowadzić do gromadzenia i niewłaściwego wykorzystania danych osobowych użytkowników.
Rehberger podał konkretny przykład, wysyłając link zawierający złośliwy obraz, który powodował, że ChatGPT zapisywał fałszywą pamięć. Informacje te miały wpływ na przyszłe odpowiedzi ChatGPT. W szczególności wszelkie informacje wprowadzone przez użytkownika byłyby również wysyłane na serwer hakera.
W związku z tym, aby uruchomić atak, haker musi jedynie przekonać użytkowników ChatGPT do kliknięcia linku zawierającego złośliwy obraz. Następnie wszystkie rozmowy użytkownika z ChatGPT zostaną przekierowane na serwer atakującego bez pozostawiania śladów.
Rehberger zgłosił błąd do OpenAi w maju 2024 roku, ale firma uznała go jedynie za lukę w zabezpieczeniach. Po otrzymaniu dowodów na możliwość kradzieży danych użytkowników, firma wydała tymczasową poprawkę do internetowej wersji ChatGPT.
Chociaż problem został tymczasowo rozwiązany, Rehberger zauważa, że niezaufane treści nadal mogą wykorzystywać atak Prompt Injection do wstawiania fałszywych informacji do pamięci długotrwałej ChatGPT. Oznacza to, że w niektórych przypadkach hakerzy mogą nadal wykorzystywać tę lukę do przechowywania złośliwych wspomnień w celu długoterminowej kradzieży danych osobowych.
OpenAI zaleca użytkownikom regularne sprawdzanie zapisanych w pamięci ChatGPT wyników pod kątem fałszywych alarmów. Firma udostępnia również szczegółowe instrukcje dotyczące zarządzania i usuwania zapisanych w narzędziu pamięci.
Źródło: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Komentarz (0)