ChatGPTs langtidsminnefunksjon er en ny funksjon introdusert av OpenAI i februar 2024 og utvidet i september.
Nylig avslørte sikkerhetsforsker Johann Rehberger en alvorlig sårbarhet knyttet til denne funksjonen.
Denne nye funksjonen skal angivelig tillate chatboter å lagre informasjon fra tidligere samtaler. Dette eliminerer behovet for at brukere må legge inn informasjon som alder, interesser eller personlige meninger hver gang de chatter. Imidlertid har nettopp denne funksjonen blitt en sårbarhet som angripere kan utnytte.

Johann Rehberger påpekte at hackere kan bruke prompt injection-teknikker – implantere ondsinnede instruksjoner i AI-minne og tvinge det til å følge ordre. Disse kommandoene ville bli levert gjennom upålitelig innhold som e-poster, dokumenter eller nettsteder.
Når disse falske minnene er lagret, vil AI-en fortsette å bruke dem som reell informasjon i samtaler med brukeren. Dette kan føre til uautorisert innsamling og bruk av brukernes personopplysninger.
Rehberger ga et spesifikt eksempel ved å sende en lenke som inneholdt et ondsinnet bilde som fikk ChatGPT til å lagre et falskt minne. Denne informasjonen ville påvirke ChatGPTs påfølgende svar. Viktigere er at all brukerinput også ville bli sendt til hackerens server.
For å aktivere angrepet trenger hackeren derfor bare å overbevise ChatGPT-brukere om å klikke på en lenke som inneholder skadelige bilder. Deretter vil alle brukerens samtaler med ChatGPT bli omdirigert til angriperens server uten å etterlate spor.
I mai 2024, etter å ha oppdaget sårbarheten, rapporterte Rehberger den til OpenAi, men selskapet avfeide det som en sikkerhetsfeil. Etter å ha mottatt bevis på at brukerdata kunne ha blitt stjålet, ga selskapet ut en midlertidig oppdatering på nettversjonen av ChatGPT.
Selv om problemet er midlertidig løst, understreket Rehberger at upålitelig innhold fortsatt kan bruke umiddelbar injeksjon for å sette inn falsk informasjon i ChatGPTs langtidsminne. Dette betyr at hackere i visse tilfeller fortsatt kan utnytte sårbarheten til å lagre ondsinnede minner med det formål å stjele personlig informasjon permanent.
OpenAI anbefaler at brukere regelmessig sjekker ChatGPTs lagrede data for å oppdage feilinformasjon. Selskapet gir også detaljerte instruksjoner om hvordan man administrerer og sletter lagrede data i verktøyet.
[annonse_2]
Kilde: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Kommentar (0)