Classificando sistemas de inteligência artificial em quatro níveis de risco.
Na manhã de 21 de novembro, a Assembleia Nacional ouviu a apresentação e o relatório sobre a análise do projeto de Lei de Inteligência Artificial.
Ao apresentar o relatório, o Ministro da Ciência e Tecnologia, Nguyen Manh Hung, afirmou que o projeto de lei foi elaborado para criar um corredor jurídico inovador para a inteligência artificial, criando um ambiente legal favorável para promover a inovação, aumentar a competitividade nacional e, ao mesmo tempo, gerenciar riscos, proteger os interesses nacionais, os direitos humanos e a soberania digital.

O Ministro da Ciência e Tecnologia, Nguyen Manh Hung, apresentou o relatório.
Para regulamentar os sistemas de inteligência artificial, o projeto de lei adotou uma abordagem de gestão baseada em riscos, classificando a inteligência artificial em quatro níveis e impondo obrigações correspondentes.
Os sistemas de inteligência artificial são classificados em quatro níveis de risco: Risco inaceitável: o sistema tem o potencial de causar danos graves e irreparáveis.
Alto risco é o sistema que pode causar danos à vida, à saúde, aos direitos e aos interesses legítimos; risco médio é o sistema que apresenta o risco de confundir, manipular ou enganar os usuários. Baixo risco engloba os demais casos.
O fornecedor deve autoclassificar o sistema antes da circulação e é responsável pelos resultados da classificação.
Para sistemas de risco médio e alto, o fornecedor deve notificar o Ministério da Ciência e Tecnologia através do Portal Único. A autoridade competente tem o direito de rever e reavaliar a classificação.
A lei estipula a responsabilidade pela transparência, rotulagem e prestação de contas. Especificamente, a entidade implementadora deve notificar e rotular claramente o conteúdo criado ou editado com elementos falsos, simulações de pessoas reais (deepfake) que possam causar mal-entendidos, ou conteúdo criado por Inteligência Artificial para fins de comunicação e publicidade.
Os fornecedores e implementadores devem explicar os resultados do gerenciamento de sistemas de alto risco quando solicitados pelas partes afetadas.
Em caso de incidente, as partes são responsáveis por corrigir, suspender ou desativar o sistema prontamente e por comunicar o ocorrido através do Portal Único. Para fins de gestão de riscos, devido ao risco inaceitável, estes sistemas estão proibidos de serem desenvolvidos, fornecidos, implementados ou utilizados de qualquer forma.
A lista de itens proibidos inclui sistemas utilizados para atos proibidos por lei, o uso de elementos falsos para enganar, manipular e causar danos graves, a exploração das fragilidades de grupos vulneráveis (crianças, idosos, etc.) ou a criação de conteúdo falso que prejudique gravemente a segurança nacional.
Para sistemas de alto risco, a adequação do sistema deve ser avaliada antes de sua distribuição ou entrada em uso.
A avaliação pode ser feita por meio de certificação de conformidade (realizada por um organismo acreditado) ou de vigilância da conformidade (autoavaliação pelo fornecedor).
O Primeiro-Ministro define a Lista de sistemas de inteligência artificial de alto risco correspondente a cada forma de avaliação.
São definidas obrigações detalhadas para o fornecedor (estabelecimento de medidas de gestão de riscos, gestão de dados de formação, preparação de documentação técnica, garantia de supervisão humana) e para o implementador (operação para o fim a que se destina, garantia de segurança, cumprimento das obrigações de transparência).
Fornecedores estrangeiros com sistemas de alto risco devem ter um representante autorizado no Vietnã e devem constituir uma entidade jurídica no Vietnã caso o sistema esteja sujeito à certificação de conformidade obrigatória.
Para modelos de risco médio, baixo e multiuso, o sistema de risco médio deve garantir transparência e rotulagem.
O projeto também estipula as responsabilidades dos desenvolvedores e usuários de modelos de inteligência artificial de uso geral para garantir a conformidade com a legislação vietnamita. Obrigações reforçadas se aplicam a modelos de IA de uso geral com risco sistêmico (potencial para impactos de longo alcance), incluindo avaliação de impacto, manutenção de registros técnicos e notificação ao Ministério da Ciência e Tecnologia.
No entanto, os modelos de IA de código aberto de uso geral estão isentos dessas obrigações reforçadas; quando um modelo de código aberto é usado para desenvolver um sistema de IA, a organização que o utiliza deve assumir a gestão de riscos desse sistema.
Considere o uso de etiquetas invisíveis para reduzir custos.
Do ponto de vista da análise, o presidente do Comitê de Ciência, Tecnologia e Meio Ambiente, Nguyen Thanh Hai, afirmou que o Comitê considera que a rotulagem de produtos de IA é uma responsabilidade ética e legal vinculativa para construir confiança na era da IA.

Presidente do Comitê de Ciência, Tecnologia e Meio Ambiente, Nguyen Thanh Hai.
Concordando basicamente com as disposições de rotulagem no projeto de lei, o Comitê recomenda, no entanto, que se leve em consideração a experiência internacional com produtos gerados por IA para garantir a adequação às condições práticas do Vietnã.
Para produtos e dispositivos de hardware com aplicações de IA (como geladeiras, TVs, máquinas de lavar roupa, etc.), recomenda-se pesquisar e considerar a aplicação de marcas d'água invisíveis para reduzir custos e procedimentos, garantindo ao mesmo tempo a gestão e a rastreabilidade.
Ao mesmo tempo, propõe-se estipular no projeto de lei os princípios para que o Governo forneça instruções detalhadas sobre formulários, normas técnicas e isenções.
Existe uma proposta para alterar a regulamentação da rotulagem de obrigatória para recomendada, com orientação técnica mínima.
Ao mesmo tempo, é necessário testar um mecanismo de rotulagem voluntária em diversas áreas; e, simultaneamente, fortalecer a comunicação para evitar o equívoco de que "sem rótulo significa que não é um produto de IA".
Em relação à classificação de risco, o Comitê considera que a classificação em quatro níveis, enquanto a Lei de Qualidade de Produtos e Mercadorias classifica produtos e mercadorias em três tipos, é inconsistente se a IA for considerada como produto ou mercadoria.
As normas sobre certificação de conformidade para sistemas de inteligência artificial de alto risco não são compatíveis com os princípios de gestão de produtos e mercadorias de alto risco previstos na Lei de Qualidade de Produtos e Mercadorias.
Portanto, recomenda-se continuar a analisar e comparar cuidadosamente as disposições do projeto de lei com as leis vigentes.
Fonte: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Comentário (0)