Os membros da UE concordaram anteriormente em limitar o uso da tecnologia de escaneamento facial em locais públicos para determinadas situações de aplicação da lei, uma "linha vermelha" para países em negociações com o Parlamento Europeu e a Comissão.
Alguns membros de centro-direita propuseram exceções que poderiam usar tecnologia de rastreamento biométrico para ajudar a encontrar crianças desaparecidas ou prevenir ataques terroristas, mas isso também não foi aprovado na votação plenária.
Os legisladores concordaram em impor medidas adicionais em plataformas de IA generativa como a GPT-4, exigindo que empresas como a OpenAI e o Google realizem avaliações de risco e divulguem qual material protegido por direitos autorais foi usado para treinar modelos de IA.
A abordagem da UE à regulamentação baseia-se numa avaliação de risco. Concentra-se na regulamentação da utilização da IA em vez da tecnologia em si, proibindo completamente algumas aplicações, como a pontuação social, e estabelecendo normas para a utilização da tecnologia em situações de "alto risco".
O texto completo do projeto de Lei da IA foi adotado em 14 de junho, abrindo caminho para uma discussão “tripartite” entre o Parlamento Europeu, os Estados-membros e a Comissão Europeia.
A Comissão espera chegar a um acordo até o final do ano para colocar a Lei de IA em vigor para empresas já em 2026. Enquanto isso, algumas autoridades estão pressionando por um "código de conduta" voluntário para empresas que se aplicaria às nações do G-7, juntamente com a Índia e a Indonésia.
O endurecimento da regulamentação da UE sobre IA artificial pode ter um grande impacto em um setor estimado em mais de US$ 1,3 trilhão nos próximos 10 anos, já que violações das regras do bloco podem resultar em multas de até 6% do faturamento anual.
(De acordo com a Bloomberg)
Fonte
Comentário (0)