Vietnam.vn - Nền tảng quảng bá Việt Nam

Säkerhetsrisker vid användning av ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[annons_1]

Amerikas största bank, JPMorgan Chase, Amazon och teknikföretaget Accenture har alla begränsat anställdas möjlighet att använda ChatGPT på grund av datasäkerhetsproblem.

Enligt CNN är dessa företags oro helt berättigad. Den 20 mars drabbades OpenAIs chatbot av ett fel som exponerade användardata. Även om felet snabbt åtgärdades avslöjade företaget att incidenten drabbade 1,2 % av ChatGPT Plus-användarna. Den läckta informationen inkluderade fullständiga namn, e-postadresser, faktureringsadresser, de fyra sista siffrorna i kreditkortsnummer och kortets utgångsdatum.

Den 31 mars utfärdade Italiens dataskyddsmyndighet (Garante) ett tillfälligt förbud mot ChatGPT med hänvisning till integritetsproblem efter att OpenAI avslöjade sårbarheten.

Mark McCreary, medordförande för datasäkerhet och integritet på advokatbyrån Fox Rothschild LLP, berättade för CNN att säkerhetsproblemen kring ChatGPT inte är överdrivna. Han liknade AI-chatboten vid en "svart låda".

ChatGPT lanserades av OpenAI i november 2022 och väckte snabbt uppmärksamhet för sin förmåga att skriva essäer, komponera berättelser eller sångtexter genom att ge dem uppmaningar. Teknikjättar som Google och Microsoft har också lanserat AI-verktyg som fungerar på liknande sätt, drivna av stora språkmodeller tränade på enorma online-datalager.

chatgpt.jpg

Efter Italiens beslut överväger även Tyskland att förbjuda ChatGPT.

När användare matar in information i dessa verktyg vet de inte hur den kommer att användas, tillade McCreay. Detta är oroande för företag eftersom fler och fler anställda använder verktyg för att skriva arbetsmejl eller anteckna inför möten, vilket leder till en större risk att avslöja affärshemligheter.

Steve Mills, chef för AI-etik på Boston Consulting Group (BCG), sa att företag är oroliga för att anställda av misstag avslöjar känslig information. Om de data som människor matar in används för att träna detta AI-verktyg har de gett bort kontrollen över informationen till någon annan.

Enligt OpenAIs integritetspolicy kan företaget samla in all personlig information och data från tjänsteanvändare för att förbättra sina AI-modeller. De kan använda denna information för att förbättra eller analysera sina tjänster, utföra forskning, kommunicera med användare och utveckla nya program och tjänster.

Integritetspolicyn anger att OpenAI kan lämna ut personlig information till tredje part utan att meddela användare, såvida det inte krävs enligt lag. OpenAI har också ett eget dokument om användarvillkor, men företaget lägger en stor del av ansvaret på användarna att vidta lämpliga åtgärder när de interagerar med AI-verktyg.

Ägarna av ChatGPT har skrivit på sin blogg om sin strategi för säker AI. Företaget betonar att de inte använder data för att sälja tjänster, annonsera eller bygga användarprofiler. Istället använder OpenAI data för att göra sina modeller mer användbara. Till exempel kommer användarkonversationer att användas för att träna ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

ChatGPT:s integritetspolicy anses vara ganska vag.

Google, företaget bakom Bard AI, har ytterligare sekretessbestämmelser för sina AI-användare. Företaget kommer att välja ut en liten del av konversationen och använda automatiserade verktyg för att ta bort personligt identifierbar information, vilket kommer att bidra till att förbättra Bard samtidigt som användarnas integritet skyddas.

Exempelkonversationer kommer att granskas av mänskliga utbildare och lagras i upp till tre år, separat från användarens Google-konto. Google påminner också användare om att inte inkludera personlig information om sig själva eller andra i konversationer på Bard AI. Teknikjätten betonar att dessa konversationer inte kommer att användas i reklamsyfte och kommer att meddela ändringar i framtiden.

Bard AI låter användare välja bort att spara konversationer på sina Google-konton, samt granska eller radera konversationer via en länk. Dessutom har företaget skyddsåtgärder utformade för att förhindra att Bard inkluderar personlig information i svar.

Steve Mills säger att användare och utvecklare ibland bara upptäcker säkerhetsriskerna som är dolda i ny teknik när det är för sent. Till exempel kan autofyllningsfunktioner av misstag avslöja användarnas personnummer.

Användare bör inte lägga in något i dessa verktyg som de inte vill dela med andra, sa Mills.


[annons_2]
Källänk

Kommentar (0)

No data
No data

I samma ämne

I samma kategori

Återuppförande av Ly-dynastins midhöstfestival vid Thang Longs kejserliga citadell
Västerländska turister tycker om att köpa leksaker till midhöstfestivalen på Hang Ma Street för att ge till sina barn och barnbarn.
Hang Ma-gatan är strålande i midhöstfärger, ungdomar checkar entusiastiskt in oavbrutet
Historiskt budskap: Träklossar i Vinh Nghiem-pagoden – ett dokumentärt mänsklighetens arv

Av samma författare

Arv

;

Figur

;

Företag

;

No videos available

Aktuella händelser

;

Politiskt system

;

Lokal

;

Produkt

;