De grootste bank van Amerika, JPMorgan Chase, Amazon en technologiebedrijf Accenture hebben hun medewerkers allemaal het gebruik van ChatGPT ontzegd vanwege zorgen over de beveiliging van hun gegevens.
Volgens CNN zijn de zorgen van deze bedrijven volkomen terecht. Op 20 maart had de chatbot van OpenAI een fout waardoor gebruikersgegevens openbaar werden. Hoewel de fout snel werd verholpen, maakte het bedrijf bekend dat het incident 1,2% van de ChatGPT Plus-gebruikers trof. De gelekte informatie omvatte volledige namen, e-mailadressen, factuuradressen, de laatste vier cijfers van creditcardnummers en vervaldata van creditcards.
Op 31 maart heeft de Italiaanse autoriteit voor gegevensbescherming (Garante) een tijdelijk verbod op ChatGPT uitgevaardigd vanwege zorgen over de privacy, nadat OpenAI de kwetsbaarheid openbaarde.
Mark McCreary, co -voorzitter van de afdeling databeveiliging en privacy bij advocatenkantoor Fox Rothschild LLP, vertelde CNN dat de beveiligingszorgen rond ChatGPT niet overdreven zijn. Hij vergeleek de AI-chatbot met een "black box".
ChatGPT werd in november 2022 gelanceerd door OpenAI en trok al snel de aandacht met zijn mogelijkheid om essays te schrijven, verhalen te componeren of songteksten te schrijven door ze prompts te geven. Techgiganten zoals Google en Microsoft hebben ook AI-tools gelanceerd die vergelijkbaar werken, aangestuurd door grote taalmodellen die getraind zijn op enorme online databestanden.
Na de stap van Italië overweegt ook Duitsland een verbod op ChatGPT
Wanneer gebruikers informatie in deze tools invoeren, weten ze niet hoe deze gebruikt zal worden, voegde McCreay eraan toe. Dit is zorgwekkend voor bedrijven, aangezien steeds meer werknemers tools gebruiken om werkgerelateerde e-mails te schrijven of aantekeningen te maken voor vergaderingen, wat leidt tot een groter risico op het onthullen van bedrijfsgeheimen.
Steve Mills, directeur AI-ethiek bij Boston Consulting Group (BCG), zei dat bedrijven zich zorgen maken dat werknemers onbedoeld gevoelige informatie prijsgeven. Als de gegevens die mensen invoeren worden gebruikt om deze AI-tool te trainen, hebben ze de controle over de gegevens aan iemand anders gegeven.
Volgens het privacybeleid van OpenAI mag het bedrijf alle persoonlijke informatie en gegevens van gebruikers verzamelen om zijn AI-modellen te verbeteren. Ze kunnen deze informatie gebruiken om hun diensten te verbeteren of te analyseren, onderzoek te doen, met gebruikers te communiceren en nieuwe programma's en diensten te ontwikkelen.
Het privacybeleid stelt dat OpenAI persoonlijke informatie aan derden mag verstrekken zonder gebruikers hiervan op de hoogte te stellen, tenzij dit wettelijk verplicht is. OpenAI heeft ook een eigen servicevoorwaardendocument, maar het bedrijf legt een groot deel van de verantwoordelijkheid bij gebruikers om passende maatregelen te nemen bij het gebruik van AI-tools.
De eigenaren van ChatGPT hebben op hun blog geschreven over hun aanpak voor veilige AI. Het bedrijf benadrukt dat het geen data gebruikt om diensten te verkopen, te adverteren of gebruikersprofielen op te bouwen. In plaats daarvan gebruikt OpenAI data om zijn modellen nuttiger te maken. Zo worden gebruikersgesprekken gebruikt om ChatGPT te trainen.
Het privacybeleid van ChatGPT wordt als vrij vaag beschouwd.
Google, het bedrijf achter Bard AI, heeft aanvullende privacybepalingen voor zijn AI-gebruikers. Het bedrijf selecteert een klein deel van het gesprek en gebruikt geautomatiseerde tools om persoonlijk identificeerbare informatie te verwijderen. Dit draagt bij aan de verbetering van Bard en beschermt tegelijkertijd de privacy van gebruikers.
Voorbeeldgesprekken worden beoordeeld door menselijke trainers en maximaal drie jaar bewaard, los van het Google-account van de gebruiker. Google herinnert gebruikers er ook aan geen persoonlijke informatie over zichzelf of anderen te vermelden in gesprekken op Bard AI. De techgigant benadrukt dat deze gesprekken niet voor reclamedoeleinden zullen worden gebruikt en zal in de toekomst wijzigingen aankondigen.
Met Bard AI kunnen gebruikers ervoor kiezen om gesprekken niet op te slaan in hun Google-account, en gesprekken bekijken of verwijderen via een link. Daarnaast heeft het bedrijf veiligheidsmaatregelen genomen om te voorkomen dat Bard persoonlijke informatie in reacties opneemt.
Steve Mills zegt dat gebruikers en ontwikkelaars de beveiligingsrisico's die verborgen zitten in nieuwe technologieën soms pas ontdekken als het te laat is. Zo kunnen functies voor automatisch invullen per ongeluk het burgerservicenummer van gebruikers onthullen.
Volgens Mills mogen gebruikers niets in deze tools stoppen dat ze niet met anderen willen delen.
Bronlink
Reactie (0)