A chefe do Gabinete Administrativo da Câmara dos Representantes, Catherine Szpindor, emitiu uma orientação geral aos gabinetes do Congresso , solicitando que não utilizem o aplicativo Copilot da Microsoft. O Copilot é uma plataforma com inteligência artificial que interage com os usuários, capaz de conversar e responder a perguntas por texto (também conhecido como chatbot), semelhante ao ChatGPT da OpenAI.
Logotipo da Microsoft
"O aplicativo Copilot da Microsoft foi considerado um risco para os usuários pelo Escritório de Segurança Cibernética devido à ameaça de vazamento de dados da Câmara para serviços em nuvem não aprovados pela Câmara", afirmou o Axios , citando o comunicado. O site acrescentou que o aplicativo será removido e bloqueado em todos os dispositivos da Câmara que utilizam o Windows.
O gabinete da Sra. Szpindor afirmou que a orientação se aplica à "versão comercial" do aplicativo Copilot, mas que também avaliará a versão governamental assim que for lançada.
A Microsoft lançou versões gratuitas e pagas do Copilot, além de diversas opções pagas para empresas. As versões pagas podem ser usadas diretamente em aplicativos do Office, como Word, Excel, Outlook e PowerPoint.
Esta é a mais recente medida regulatória do governo federal dos EUA em sua busca por regulamentações para essa tecnologia em expansão. Em junho de 2023, a Câmara dos Representantes dos EUA também restringiu o uso do ChatGPT por funcionários, permitindo apenas a versão paga e proibindo o uso da versão gratuita do aplicativo.
Em comunicado, a Microsoft reconheceu o aumento das exigências de segurança de dados por parte dos usuários governamentais e afirmou ter anunciado um plano para adaptar suas ferramentas às diretrizes governamentais, abordando as preocupações com a segurança.
Aplicativos como Copilot e ChatGPT usam grandes quantidades de dados para "aprendizado", e preocupações com direitos autorais e segurança de dados surgiram desde o seu lançamento. De acordo com o Axios , muitas empresas estão comprando versões pagas, mas com a condição de que os dados não sejam usados para treinar modelos de IA no futuro, devido ao risco de vazamento de dados.
Link da fonte






Comentário (0)