Em um documento de 20 páginas divulgado em 26 de novembro, 18 países concordaram que as empresas de pesquisa e aplicação de IA precisam desenvolver e implantar a tecnologia de uma forma que proteja os clientes e o público em geral de abusos, de acordo com a Reuters.
O acordo não é vinculativo e faz principalmente recomendações gerais, como monitorar sistemas de IA para detectar e prevenir abusos, proteger dados e verificar fornecedores de software.
O desenvolvimento da IA leva a uma corrida no campo da tecnologia, bem como a muitas preocupações.
No entanto, Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestrutura dos EUA, disse que era importante que tantos países compartilhassem a visão de que os sistemas de IA precisam colocar a segurança em primeiro lugar.
“Esta é a primeira vez que vemos países concordarem que essas capacidades não se resumem apenas à atratividade dos recursos, à rapidez com que podemos colocá-los no mercado ou à forma como podemos competir para reduzir custos”, disse Easterly à Reuters. O funcionário afirmou que a orientação representa “um acordo de que o mais importante a ser garantido na fase de projeto é a segurança”.
O acordo é a mais recente de uma série de iniciativas de governos ao redor do mundo para moldar o desenvolvimento da IA, cujo impacto é cada vez mais sentido nos setores e na sociedade em geral.
O documento aborda questões sobre como proteger sistemas de IA de hackers e inclui recomendações como o lançamento de novos modelos somente após testes de segurança rigorosos. A nova orientação não aborda questões complexas sobre o uso apropriado da IA ou como coletar os dados que alimentam esses modelos.
A ascensão da IA levantou muitas preocupações, incluindo temores de que ela possa ser usada para atrapalhar o processo democrático, promover fraudes ou levar ao desemprego em massa, entre outros danos.
A Europa está à frente dos EUA na promulgação de regulamentações relacionadas à IA. França, Alemanha e Itália também chegaram recentemente a um acordo sobre como regulamentar a área, no que diz respeito aos modelos subjacentes de IA.
O governo Biden pressionou os legisladores sobre a regulamentação da IA, mas o Congresso profundamente polarizado fez pouco progresso na aprovação de regulamentações eficazes.
A Casa Branca buscou mitigar os riscos da IA para consumidores, trabalhadores e minorias, ao mesmo tempo em que reforçava a segurança nacional com uma nova ordem executiva em outubro.
Link da fonte
Comentário (0)