O maior banco dos EUA, o JPMorgan Chase, a Amazon e a empresa de tecnologia Accenture restringiram o uso do ChatGPT por funcionários devido a preocupações com a segurança de dados.
Segundo a CNN, as preocupações dessas empresas são completamente infundadas. Em 20 de março, o chatbot da OpenAI apresentou um erro que expôs dados de usuários. Embora o erro tenha sido corrigido rapidamente, a empresa revelou que o incidente afetou 1,2% dos usuários do ChatGPT Plus. As informações vazadas incluíam nomes completos, endereços de e-mail, endereços de cobrança, os últimos quatro dígitos dos números de cartão de crédito e as datas de validade do cartão.
Em 31 de março, a autoridade de proteção de dados da Itália (Garante) emitiu uma proibição temporária do ChatGPT citando preocupações com privacidade depois que a OpenAI divulgou a vulnerabilidade.
Mark McCreary, copresidente de segurança de dados e privacidade do escritório de advocacia Fox Rothschild LLP, disse à CNN que as preocupações com a segurança em torno do ChatGPT não são exageradas. Ele comparou o chatbot de IA a uma "caixa preta".
O ChatGPT foi lançado pela OpenAI em novembro de 2022 e rapidamente atraiu atenção por sua capacidade de escrever ensaios, compor histórias ou letras de músicas por meio de prompts. Gigantes da tecnologia como Google e Microsoft também lançaram ferramentas de IA que funcionam de forma semelhante, alimentadas por grandes modelos de linguagem treinados em enormes bancos de dados online.
Após a decisão da Itália, a Alemanha também está considerando proibir o ChatGPT
Quando os usuários inserem informações nessas ferramentas, eles não sabem como elas serão usadas, acrescentou o Sr. McCreay. Isso é preocupante para as empresas, pois cada vez mais funcionários usam ferramentas para ajudar a escrever e-mails de trabalho ou fazer anotações para reuniões, aumentando o risco de exposição de segredos comerciais.
Steve Mills, diretor de ética em IA do Boston Consulting Group (BCG), disse que as empresas estão preocupadas com a possibilidade de funcionários revelarem acidentalmente informações confidenciais. Se os dados inseridos pelas pessoas estiverem sendo usados para treinar essa ferramenta de IA, elas terão cedido o controle dos dados a outra pessoa.
De acordo com a política de privacidade da OpenAI, a empresa pode coletar todas as informações e dados pessoais dos usuários dos serviços para aprimorar seus modelos de IA. Essas informações podem ser usadas para aprimorar ou analisar seus serviços, conduzir pesquisas, comunicar-se com os usuários e desenvolver novos programas e serviços.
A política de privacidade estabelece que a OpenAI pode fornecer informações pessoais a terceiros sem notificar os usuários, a menos que exigido por lei. A OpenAI também possui seus próprios Termos de Serviço, mas a empresa atribui grande parte da responsabilidade aos usuários para que tomem as medidas adequadas ao interagir com ferramentas de IA.
Os proprietários do ChatGPT publicaram em seu blog sobre sua abordagem para uma IA segura. A empresa enfatiza que não utiliza dados para vender serviços, anunciar ou criar perfis de usuários. Em vez disso, a OpenAI utiliza dados para tornar seus modelos mais úteis. Por exemplo, as conversas dos usuários serão usadas para treinar o ChatGPT.
A política de privacidade do ChatGPT é considerada bastante vaga.
O Google, empresa por trás do Bard AI, possui disposições adicionais de privacidade para seus usuários de IA. A empresa selecionará uma pequena parte da conversa e usará ferramentas automatizadas para remover informações de identificação pessoal, o que ajudará a aprimorar o Bard e, ao mesmo tempo, proteger a privacidade do usuário.
As conversas de amostra serão revisadas por instrutores humanos e armazenadas por até três anos, separadamente da conta do Google do usuário. O Google também lembra os usuários de não incluir informações pessoais sobre si mesmos ou sobre terceiros em conversas no Bard AI. A gigante da tecnologia enfatiza que essas conversas não serão usadas para fins publicitários e anunciará mudanças no futuro.
A Bard AI permite que os usuários optem por não salvar conversas em suas contas do Google, bem como revisá-las ou excluí-las por meio de um link. Além disso, a empresa possui proteções projetadas para impedir que a Bard inclua informações pessoais nas respostas.
Steve Mills afirma que, às vezes, usuários e desenvolvedores só descobrem os riscos de segurança ocultos em novas tecnologias quando já é tarde demais. Por exemplo, funções de preenchimento automático podem revelar acidentalmente os números de previdência social dos usuários.
Os usuários não devem inserir nada nessas ferramentas que não queiram compartilhar com outras pessoas, disse o Sr. Mills.
[anúncio_2]
Link da fonte
Comentário (0)