Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT-brukere i faresonen for informasjonstyveri

Báo Kinh tế và Đô thịBáo Kinh tế và Đô thị30/09/2024

[annonse_1]

ChatGPTs langtidsminnefunksjon er en ny funksjon introdusert av OpenAI i februar 2024 og utvidet i september.

Nylig avslørte sikkerhetsforsker Johann Rehberger en alvorlig sårbarhet knyttet til denne funksjonen.

Det er kjent at denne nye funksjonen hjelper chatboter med å lagre informasjon fra tidligere samtaler. Takket være dette trenger ikke brukerne å legge inn informasjon som alder, interesser eller personlige synspunkter hver gang de chatter. Dette har imidlertid blitt en svakhet som angripere kan utnytte.

ChatGPT-brukere i faresonen for informasjonstyveri
ChatGPT-brukere i faresonen for informasjonstyveri

Johann Rehberger har vist at hackere kan bruke en teknikk som kalles prompt injection – å sette inn ondsinnede instruksjoner i minnet og tvinge AI-en til å adlyde. Disse kommandoene vil bli levert gjennom upålitelig innhold som e-poster, dokumenter eller nettsteder.

Når disse falske minnene er lagret, vil AI-en fortsette å bruke dem som ekte meldinger i samtaler med brukere, noe som kan føre til innsamling og misbruk av brukernes personopplysninger.

Rehberger ga et konkret eksempel ved å sende en lenke som inneholdt et ondsinnet bilde som fikk ChatGPT til å lagre et falskt minne. Denne informasjonen ville påvirke ChatGPTs fremtidige svar. Spesielt ville all informasjon brukeren skrev inn også bli sendt til hackerens server.

For å utløse angrepet trenger hackeren derfor bare å overbevise ChatGPT-brukere om å klikke på en lenke som inneholder et skadelig bilde. Etter det vil alle brukerens chatter med ChatGPT bli omdirigert til angriperens server uten å etterlate spor.

Rehberger rapporterte feilen til OpenAi i mai 2024, men selskapet anså det kun som et sikkerhetsproblem. Etter å ha mottatt bevis på at brukerdata kunne bli stjålet, ga selskapet ut en midlertidig oppdatering på nettversjonen av ChatGPT.

Selv om problemet er midlertidig løst, bemerker Rehberger at upålitelig innhold fortsatt kan bruke Prompt injection til å sette inn falsk informasjon i ChatGPTs langtidsminne. Dette betyr at hackere i visse tilfeller fortsatt kan utnytte sårbarheten til å lagre ondsinnede minner for å stjele personlig informasjon på lang sikt.

OpenAI anbefaler at brukere regelmessig sjekker ChatGPTs lagrede minner for falske positiver, og selskapet gir også detaljerte instruksjoner om hvordan man administrerer og sletter lagrede minner.


[annonse_2]
Kilde: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html

Kommentar (0)

No data
No data

I samme emne

I samme kategori

Ho Chi Minh-byen tiltrekker seg investeringer fra utenlandske direkteinvesteringer i nye muligheter
Historiske flommer i Hoi An, sett fra et militærfly fra Forsvarsdepartementet
Den «store flommen» av Thu Bon-elven oversteg den historiske flommen i 1964 med 0,14 m.
Dong Van steinplatå – et sjeldent «levende geologisk museum» i verden

Av samme forfatter

Arv

Figur

Forretninger

Beundre «Ha Long Bay on land» som nettopp er en av verdens mest populære reisemål

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt