Os legisladores continuarão a discutir as regulamentações detalhadas nas próximas semanas para que o processo final possa ser concluído no início do próximo ano, com previsão de entrada em vigor a partir de 2026.
Até lá, as empresas são incentivadas a aderir ao Pacto de IA voluntário para implementar as principais obrigações das regras.
A seguir, apresentamos os principais pontos do acordo firmado pela UE.
Sistema de alto risco
Os chamados sistemas de IA de alto risco – aqueles considerados suscetíveis de causar danos significativos à saúde, segurança, direitos fundamentais, meio ambiente, democracia, eleições e Estado de Direito – terão de cumprir uma série de requisitos, como a realização de testes que avaliem o impacto sobre os direitos fundamentais e as obrigações de acesso ao mercado da UE.
Os sistemas de baixo risco, por sua vez, estariam sujeitos a obrigações de transparência mais leves, como a rotulagem do conteúdo gerado por IA para que os usuários possam considerar utilizá-lo.
Inteligência artificial na aplicação da lei
As agências de aplicação da lei só estão autorizadas a usar sistemas de identificação biométrica remota em tempo real em espaços públicos para identificar vítimas de sequestro, tráfico de pessoas, exploração sexual e para prevenir ameaças terroristas específicas e iminentes.
As autoridades também poderão usar tecnologia de IA para rastrear suspeitos de terrorismo, tráfico de pessoas, exploração sexual, assassinato, sequestro, estupro, roubo à mão armada, participação em organização criminosa e crimes ambientais.
Sistemas de IA Geral e de Plataforma (GPAI)
O GPAI e os modelos subjacentes estarão sujeitos a requisitos de transparência, como a produção de documentação técnica, o cumprimento da legislação de direitos autorais da UE e a publicação de resumos detalhados do conteúdo usado para treinar os algoritmos.
Os modelos de plataforma que se enquadram na categoria de potencial criação de risco sistémico e GPAI de alto impacto serão obrigados a realizar uma avaliação geral do modelo, rever e mitigar os riscos, realizar engenharia reversa, notificar a Comissão Europeia sobre incidentes graves, garantir a cibersegurança e reportar o consumo de energia.
Enquanto não forem publicadas normas harmonizadas da UE, os GPAIs (Institutos Gerais de Aquisição de Produtos Médicos) correm o risco sistémico de dependerem de códigos de conduta para cumprirem os regulamentos.
Sistemas de IA proibidos
Condutas e conteúdos proibidos incluem: Sistemas de classificação biométrica que utilizam características sensíveis como crenças políticas , religiosas, filosóficas, orientação sexual e raça;
Análise não direcionada de imagens faciais da Internet ou de gravações de câmeras de segurança para criar um banco de dados de reconhecimento facial;
Reconhecimento de emoções no ambiente de trabalho e em contextos educacionais ;
A pontuação social baseia-se no comportamento social ou em características pessoais;
Os sistemas de IA manipulam o comportamento humano para subverter seu livre arbítrio;
A inteligência artificial é usada para explorar as fraquezas humanas devido à idade, deficiência, situação econômica ou social.
Sanções
Dependendo da infração e do porte da empresa envolvida, as multas começarão em 7,5 milhões de euros (US$ 8 milhões) ou 1,5% do faturamento global anual, podendo chegar a 35 milhões de euros ou 7% do faturamento global.
(Segundo a Reuters)
UE chega a acordo histórico para regulamentar a inteligência artificial.
UE chega a acordo sobre a Lei de Proteção de Dispositivos Inteligentes
A UE endurece as regras contra gigantes da tecnologia e ameaça desmembrar empresas que as violarem.
Fonte










Comentário (0)