Největší americká banka JPMorgan Chase, Amazon a technologická společnost Accenture omezily svým zaměstnancům používání ChatGPT z důvodu obav o bezpečnost dat.
Podle CNN jsou obavy těchto firem zcela opodstatněné. Dne 20. března došlo u chatbota OpenAI k chybě, která odhalila uživatelská data. Přestože byla chyba rychle opravena, společnost odhalila, že incident postihl 1,2 % uživatelů ChatGPT Plus. Uniklé informace zahrnovaly celá jména, e-mailové adresy, fakturační adresy, poslední čtyři číslice čísel kreditních karet a data platnosti karet.
Italský úřad pro ochranu osobních údajů (Garante) vydal 31. března dočasný zákaz ChatGPT s odvoláním na obavy o soukromí poté, co OpenAI odhalil zranitelnost.
Mark McCreary, spolupředseda oddělení pro bezpečnost dat a soukromí v advokátní kanceláři Fox Rothschild LLP, řekl CNN, že bezpečnostní obavy týkající se ChatGPT nejsou přehnané. Chatbota s umělou inteligencí přirovnal k „černé skříňce“.
ChatGPT byl spuštěn společností OpenAI v listopadu 2022 a rychle upoutal pozornost svou schopností psát eseje, skládat příběhy nebo texty písní na základě zadání pokynů. Technologičtí giganti jako Google a Microsoft také spustili nástroje umělé inteligence, které fungují podobně a jsou poháněny rozsáhlými jazykovými modely trénovanými na obrovských online datových úložištích.
Po kroku Itálie zvažuje zákaz ChatGPT i Německo.
„Když uživatelé zadávají informace do těchto nástrojů, nevědí, jak budou použity,“ dodal pan McCreay. „To je pro firmy znepokojivé, protože stále více zaměstnanců používá nástroje, které jim pomáhají psát pracovní e-maily nebo si dělat poznámky na schůzky, což vede k většímu riziku odhalení obchodního tajemství.“
Steve Mills, ředitel pro etiku umělé inteligence ve společnosti Boston Consulting Group (BCG), uvedl, že firmy se obávají, že zaměstnanci nechtěně odhalí citlivé informace. Pokud jsou data, která lidé zadávají, používána k trénování tohoto nástroje umělé inteligence, předávají kontrolu nad daty někomu jinému.
Podle zásad ochrany osobních údajů společnosti OpenAI může společnost shromažďovat veškeré osobní údaje a data od uživatelů služeb za účelem vylepšení svých modelů umělé inteligence. Tyto informace mohou být použity ke zlepšení nebo analýze svých služeb, provádění výzkumu, komunikaci s uživateli a vývoji nových programů a služeb.
Zásady ochrany osobních údajů uvádějí, že OpenAI může poskytovat osobní údaje třetím stranám bez upozornění uživatelů, pokud to nevyžaduje zákon. OpenAI má také vlastní dokument s podmínkami služby, ale společnost klade velkou odpovědnost na uživatele, aby při interakci s nástroji umělé inteligence přijali vhodná opatření.
Majitelé ChatGPT zveřejnili na svém blogu informace o svém přístupu k bezpečné umělé inteligenci. Společnost zdůrazňuje, že nepoužívá data k prodeji služeb, reklamě ani vytváření profilů uživatelů. OpenAI místo toho používá data k tomu, aby své modely byly užitečnější. Například konverzace uživatelů budou použity k trénování ChatGPT.
Zásady ochrany osobních údajů ChatGPT jsou považovány za poměrně vágní.
Společnost Google, která stojí za platformou Bard AI, má pro své uživatele s umělou inteligencí dodatečná opatření na ochranu soukromí. Společnost vybere malou část konverzace a pomocí automatizovaných nástrojů odstraní osobní údaje, což pomůže vylepšit platformu Bard a zároveň ochrání soukromí uživatelů.
Ukázkové konverzace budou zkontrolovány lidskými školiteli a budou uloženy až tři roky, odděleně od účtu Google uživatele. Google také uživatelům připomíná, aby v konverzacích na platformě Bard AI neuváděli osobní údaje o sobě ani o jiných osobách. Technologický gigant zdůrazňuje, že tyto konverzace nebudou použity k reklamním účelům a v budoucnu oznámí změny.
Bard AI umožňuje uživatelům odhlásit se z ukládání konverzací do jejich účtů Google a také si konverzace prohlížet nebo mazat pomocí odkazu. Společnost navíc zavedla ochranná opatření, která Bardovi brání v zahrnutí osobních údajů do odpovědí.
Steve Mills říká, že uživatelé a vývojáři někdy objeví bezpečnostní rizika skrytá v nových technologiích, až když je příliš pozdě. Například funkce automatického vyplňování mohou omylem odhalit čísla sociálního zabezpečení uživatelů.
Uživatelé by do těchto nástrojů neměli vkládat nic, co by nechtěli sdílet s ostatními, řekl pan Mills.
Zdrojový odkaz
Komentář (0)