Os membros da UE já concordaram em usar a tecnologia de reconhecimento facial em público apenas em determinadas situações de aplicação da lei, uma "linha vermelha" para os países em negociações com o Parlamento Europeu e a Comissão.
Alguns membros de centro-direita propuseram exceções que poderiam usar tecnologia de rastreamento biométrico para ajudar a encontrar crianças desaparecidas ou prevenir ataques terroristas, mas essas propostas também não foram aprovadas na votação plenária.
Os legisladores concordaram em impor medidas adicionais a plataformas de IA generativa como o GPT-4, exigindo que empresas como a OpenAI e o Google realizem avaliações de risco e divulguem qual material protegido por direitos autorais foi usado para treinar os modelos de IA.
A abordagem da UE à regulamentação baseia-se numa avaliação de risco. Centra-se na regulamentação da utilização da IA em vez da própria tecnologia, proibindo completamente algumas aplicações, como a pontuação social, e definindo normas para a utilização da tecnologia em situações de "alto risco".
O texto integral do projeto de lei sobre IA foi adotado em 14 de junho, abrindo caminho para uma discussão “tripartite” entre o Parlamento Europeu, os Estados-Membros e a Comissão Europeia.
A Comissão espera chegar a um acordo até o final deste ano para que a Lei de IA entre em vigor para as empresas já em 2026. Enquanto isso, alguns funcionários defendem um "código de conduta" voluntário para empresas que se aplicaria aos países do G7, juntamente com a Índia e a Indonésia.
O endurecimento da regulamentação da IA (Inteligência Artificial) pela UE poderá ter um grande impacto num setor estimado em mais de 1,3 biliões de dólares nos próximos 10 anos, uma vez que as violações das regras do bloco poderão resultar em multas até 6% do volume de negócios anual.
(Segundo a Bloomberg)
Fonte










Comentário (0)