O maior banco dos EUA, JPMorgan Chase, Amazon e a empresa de tecnologia Accenture restringiram seus funcionários de usar o ChatGPT devido a preocupações com a segurança de dados.
Segundo a CNN, as preocupações dessas empresas são bem fundamentadas. Em 20 de março, o chatbot da OpenAI apresentou um erro que expôs dados de usuários. Embora o erro tenha sido corrigido rapidamente, a empresa revelou que o incidente afetou 1,2% dos usuários do ChatGPT Plus. As informações vazadas incluíam nomes completos, endereços de e-mail, endereços de cobrança, os últimos quatro dígitos dos números de cartão de crédito e as datas de validade do cartão.
Em 31 de março, a autoridade de proteção de dados da Itália (Garante) emitiu uma proibição temporária ao ChatGPT alegando preocupações com privacidade depois que a OpenAI divulgou a vulnerabilidade.
Mark McCreary, copresidente de segurança de dados e privacidade do escritório de advocacia Fox Rothschild LLP, disse à CNN que as preocupações com a segurança em torno do ChatGPT não são exageradas. Ele comparou o chatbot de IA a uma "caixa preta".
O ChatGPT foi lançado pela OpenAI em novembro de 2022 e rapidamente ganhou atenção por sua capacidade de escrever ensaios, histórias e letras de músicas por meio de prompts. Gigantes da tecnologia como Google e Microsoft também lançaram ferramentas de IA semelhantes, alimentadas por grandes modelos de linguagem treinados em vastos repositórios de dados online.
Após a decisão da Itália, a Alemanha também está considerando proibir o ChatGPT
Quando os usuários inserem informações nessas ferramentas, eles não sabem como elas serão usadas, acrescentou McCreay. Isso é preocupante para as empresas, pois cada vez mais funcionários usam ferramentas para ajudá-los a escrever e-mails de trabalho ou fazer anotações para reuniões, o que aumenta o risco de exposição de segredos comerciais.
Steve Mills, diretor de ética em IA do Boston Consulting Group (BCG), disse que as empresas estão preocupadas com a possibilidade de funcionários revelarem acidentalmente informações confidenciais. Se os dados inseridos pelas pessoas estiverem sendo usados para treinar essa ferramenta de IA, elas terão perdido o controle dos dados para outra pessoa.
De acordo com a política de privacidade da OpenAI, a empresa pode coletar todas as informações pessoais e dados dos usuários dos serviços para aprimorar modelos de IA. A empresa pode usar essas informações para aprimorar ou analisar seus serviços, conduzir pesquisas, comunicar-se com os usuários e desenvolver novos programas e serviços.
A política de privacidade estabelece que a OpenAI pode fornecer informações pessoais a terceiros sem notificar os usuários, a menos que exigido por lei. A OpenAI também possui seus próprios Termos de Serviço, mas a empresa atribui grande parte da responsabilidade aos usuários para que tomem as medidas adequadas ao interagir com ferramentas de IA.
Os proprietários do ChatGPT publicaram em seu blog sobre sua abordagem para uma IA segura. A empresa enfatiza que não utiliza dados para vender serviços, anunciar ou criar perfis de usuários, mas sim que a OpenAI utiliza dados para tornar seus modelos mais úteis. Por exemplo, as conversas dos usuários serão usadas para treinar o ChatGPT.
A política de privacidade do ChatGPT é considerada bastante vaga.
O Google, empresa por trás do Bard AI, possui disposições adicionais de privacidade para seus usuários de IA. A empresa selecionará uma pequena parte da conversa e usará ferramentas automatizadas para remover informações de identificação pessoal, o que ajudará a aprimorar o Bard e, ao mesmo tempo, proteger a privacidade do usuário.
As conversas de amostra serão revisadas por instrutores humanos e armazenadas por até três anos, separadamente da conta do Google do usuário. O Google também lembra os usuários a não incluir informações pessoais sobre si mesmos ou sobre outras pessoas em conversas no Bard AI. A gigante da tecnologia enfatiza que essas conversas não serão usadas para fins publicitários e anunciará mudanças no futuro.
A Bard AI permite que os usuários optem por não salvar conversas em suas contas do Google, bem como revisá-las ou excluí-las por meio de um link. Além disso, a empresa possui salvaguardas projetadas para impedir que a Bard inclua informações pessoais nas respostas.
Steve Mills afirma que, às vezes, usuários e desenvolvedores só descobrem os riscos de segurança ocultos em novas tecnologias quando já é tarde demais. Por exemplo, funções de preenchimento automático podem revelar acidentalmente os números de previdência social dos usuários.
Os usuários não devem inserir nada nessas ferramentas que não queiram compartilhar com outras pessoas, disse o Sr. Mills.
Link da fonte
Comentário (0)