Amerika legnagyobb bankja, a JPMorgan Chase, az Amazon és az Accenture technológiai vállalat is korlátozta alkalmazottai számára a ChatGPT használatát adatbiztonsági aggályok miatt.
A CNN szerint ezen vállalkozások aggodalmai teljesen megalapozottak. Március 20-án az OpenAI chatbotjában hiba lépett fel, amely felhasználói adatokat hozott nyilvánosságra. Bár a hibát gyorsan kijavították, a vállalat nyilvánosságra hozta, hogy az incidens a ChatGPT Plus felhasználóinak 1,2%-át érintette. A kiszivárgott információk között szerepeltek a teljes nevek, e-mail címek, számlázási címek, a hitelkártyaszámok utolsó négy számjegye és a kártya lejárati dátuma.
Március 31-én az olasz adatvédelmi hatóság (Garante) ideiglenesen betiltotta a ChatGPT használatát adatvédelmi aggályokra hivatkozva, miután az OpenAI nyilvánosságra hozta a sebezhetőséget.
Mark McCreary, a Fox Rothschild LLP ügyvédi iroda adatbiztonságért és adatvédelemért felelős társelnöke a CNN-nek elmondta, hogy a ChatGPT-t övező biztonsági aggodalmak nem eltúlzottak. A mesterséges intelligenciával működő chatbotot egy „fekete dobozhoz” hasonlította.
A ChatGPT-t az OpenAI indította el 2022 novemberében, és gyorsan felkeltette a figyelmet azzal a képességével, hogy esszéket tud írni, történeteket vagy dalszövegeket komponálni promptok adásával. A techóriások, mint a Google és a Microsoft, szintén elindítottak hasonló módon működő MI-eszközöket, amelyeket hatalmas online adattárakon betanított nagyméretű nyelvi modellek működtetnek.
Olaszország lépését követően Németország is fontolgatja a ChatGPT betiltását.
Amikor a felhasználók információkat adnak meg ezekben az eszközökben, nem tudják, hogyan fogják azokat felhasználni – tette hozzá McCreay úr. Ez aggasztó a vállalatok számára, mivel egyre több alkalmazott használ eszközöket munkahelyi e-mailek írásához vagy jegyzeteléshez a megbeszéléseken, ami növeli az üzleti titkok felfedésének kockázatát.
Steve Mills, a Boston Consulting Group (BCG) mesterséges intelligencia etikai igazgatója szerint a vállalatok aggódnak amiatt, hogy az alkalmazottak véletlenül bizalmas információkat hoznak nyilvánosságra. Ha az emberek által bevitt adatokat használják fel ennek a mesterséges intelligencia eszköznek a betanítására, akkor az adatok feletti ellenőrzést átadták valaki másnak.
Az OpenAI adatvédelmi irányelvei szerint a vállalat összegyűjtheti a szolgáltatás felhasználóinak minden személyes adatát és információt a mesterséges intelligencia modelljeinek fejlesztése érdekében. Ezeket az információkat felhasználhatják szolgáltatásaik fejlesztésére vagy elemzésére, kutatások elvégzésére, a felhasználókkal való kommunikációra, valamint új programok és szolgáltatások fejlesztésére.
Az adatvédelmi irányelvek kimondják, hogy az OpenAI személyes adatokat harmadik feleknek a felhasználók értesítése nélkül is megadhat, kivéve, ha törvény írja elő. Az OpenAI-nak saját Szolgáltatási Feltételei is vannak, de a vállalat a felelősség nagy részét a felhasználókra hárítja, hogy megfelelő intézkedéseket tegyenek a mesterséges intelligencia eszközeivel való interakció során.
A ChatGPT tulajdonosai blogjukon közzétették a biztonságos mesterséges intelligenciához való hozzáállásukat. A vállalat hangsúlyozza, hogy nem használ adatokat szolgáltatások értékesítésére, hirdetésekre vagy felhasználói profilok építésére. Ehelyett az OpenAI adatokat használ fel modelljei hasznosabbá tételére. Például a felhasználói beszélgetéseket a ChatGPT betanításához fogják felhasználni.
A ChatGPT adatvédelmi irányelveit meglehetősen homályosnak tartják.
A Bard AI mögött álló Google további adatvédelmi rendelkezéseket hozott a mesterséges intelligencia felhasználói számára. A vállalat a beszélgetés egy kis részét kiválasztja, és automatizált eszközöket használ a személyazonosításra alkalmas adatok eltávolítására, ami elősegíti a Bard fejlesztését, miközben védi a felhasználók adatait.
A mintabeszélgetéseket emberi trénerek ellenőrzik, és legfeljebb három évig tárolják, a felhasználó Google-fiókjától elkülönítve. A Google arra is emlékezteti a felhasználókat, hogy ne adjanak meg személyes adatokat magukról vagy másokról a Bard AI-n folytatott beszélgetésekben. A technológiai óriás hangsúlyozza, hogy ezeket a beszélgetéseket nem használják fel reklámcélokra, és a jövőben bejelenti a változásokat.
A Bard AI lehetővé teszi a felhasználók számára, hogy leiratkozzanak a beszélgetések Google-fiókjukba mentéséről, valamint egy linken keresztül áttekintsék vagy töröljék a beszélgetéseket. Ezenkívül a vállalat olyan biztonsági intézkedéseket is bevezetett, amelyek megakadályozzák, hogy a Bard személyes adatokat adjon meg a válaszokban.
Steve Mills szerint a felhasználók és a fejlesztők néha csak akkor fedezik fel az új technológiákban rejlő biztonsági kockázatokat, amikor már túl késő. Például az automatikus kitöltési funkciók véletlenül felfedhetik a felhasználók társadalombiztosítási számát.
Mr. Mills szerint a felhasználóknak nem szabad semmi olyat beilleszteniük ezekbe az eszközökbe, amit nem szeretnének másokkal megosztani.
[hirdetés_2]
Forráslink
Hozzászólás (0)