Privata samtal blir offentliga data
Tusentals privata samtal har indexerats av Google, enligt en rapport från Fast Company. Detta kan bara vara "toppen av isberget", med miljontals fler potentiellt exponerade.
Även om dessa samtal inte innehöll direkt identifierande information, delade många användare extremt känsliga personuppgifter, från relationer till traumatiska upplevelser, vilket möjliggjorde identifiering.
Allt började när några cybersäkerhetsexperter upptäckte att användare med bara en enkel Google-fråga enkelt kunde komma åt offentligt delade chattar.
Det läckta innehållet är inte begränsat till exempelstycken och tekniska frågor, utan inkluderar även personlig information, känsligt arbete och till och med privata förtroenden.
Orsaken fastställdes vara funktionen "Dela chatt", ett verktyg som implementerats av OpenAI för att hjälpa användare att dela chattinnehåll med andra. När användare väljer alternativet "Gör den här chatten synbar" skapar systemet en offentlig länk som kan indexeras av sökmotorer.
Det är värt att nämna att gränssnittet för den här funktionen inte är tillräckligt tydligt, vilket får många att missförstå att de bara delar innehåll med vänner eller kollegor, istället för att göra det offentligt online.
Som svar på motreaktionen vidtog OpenAI omedelbara åtgärder: de pausade delningen av sina resultat och samarbetade med Google för att ta bort de relevanta länkarna.
Enligt Fast Company har fler än 4 500 sådana länkar upptäckts, ett inte litet antal med tanke på att ChatGPT har hundratals miljoner användare världen över.
Det som är oroande är att många har använt ChatGPT för att skriva e-postmeddelanden, utbyta arbete, utnyttja medicinsk information eller till och med anförtro sig personliga psykologiska problem, i tron att detta är ett privat utrymme.
Varningsklockorna ringer om integritet i AI-åldern
Händelsen väcker stora frågor om AI-företagens ansvar för användardata. Ger OpenAI tillräckligt med transparens för att användarna ska förstå sina rättigheter till integritet? Står nivån av dataskydd som användarna får verkligen i proportion till innehållets känslighet?
OpenAIs VD Sam Altman har varnat användare för att dela känsliga personuppgifter med ChatGPT och medgett att företaget kan tvingas lämna ut sådan information om det krävs av en domstol.
Det är dock anmärkningsvärt att Altman i sina uttalanden inte nämnde att konversationer som användare frivilligt delar kunde indexeras offentligt på sökmotorer.
Dessutom är detta inte första gången ChatGPT har ifrågasatts angående dataläckor. Forskare har varnat för att stora språkmodeller som GPT "av misstag" kan återskapa gammal data om användare ställer frågor på ett smart sätt.
Det går inte att förneka att verktyg som ChatGPT har revolutionerat hur människor söker information och skapar innehåll. Men förutom bekvämligheten måste användarna vara medvetna om att ingenting är verkligt privat utan starka tekniska hinder och noggrann personlig hantering.
Källa: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Kommentar (0)