É necessário projetar um mecanismo de governança de IA moderno e síncrono.
Expressando sua aprovação à abordagem adotada na elaboração desta Lei como uma legislação-quadro para gerir e promover a pesquisa, o desenvolvimento, a implementação e o uso da inteligência artificial no Vietnã, os deputados da Assembleia Nacional elogiaram a preparação do Governo; o dossiê do projeto de lei foi elaborado com esmero, garantindo a conformidade com as normas; ao mesmo tempo, a proposta de revogação de diversos artigos e cláusulas relacionados na Lei da Indústria de Tecnologia Digital se mostra necessária para evitar sobreposições, criando uma base jurídica unificada para gerir e promover o desenvolvimento da IA. Contudo, para a conclusão deste projeto de lei, os deputados solicitaram à Comissão de Redação que continue revisando, emendando, complementando e revogando diversos artigos e cláusulas, conforme necessário.

Cena da reunião do Grupo 6 na manhã de 21 de novembro. Foto: Ho Long
Especificamente, no que diz respeito ao âmbito da regulamentação e aos sujeitos aplicáveis, o Deputado da Assembleia Nacional Pham Trong Nghia (Lang Son) afirmou que é necessário continuar a esclarecer esta questão. Isso porque, atualmente, as disposições relativas às "atividades de pesquisa" na minuta correm o risco de se sobreporem ao conteúdo já regulamentado pela Lei de Ciência , Tecnologia e Inovação. Além disso, a minuta não apresenta uma política específica para promover a pesquisa em sistemas de inteligência artificial e não define claramente os sujeitos que realizam essa atividade. Portanto, o deputado sugeriu esclarecer quais atividades estão dentro do âmbito de regulamentação da Lei e quais estão sob a jurisdição da legislação vigente, a fim de garantir a viabilidade, a coerência e evitar sobreposições.

O deputado da Assembleia Nacional Pham Trong Nghia ( Lang Son ) comenta o projeto de lei sobre Inteligência Artificial. Foto: Ho Long
Em relação à explicação dos termos, o membro da Assembleia Nacional, Pham Trong Nghia, deu especial atenção ao conceito de "ajuste fino" no modelo de inteligência artificial de propósito geral. O representante afirmou que este é um termo especializado, ainda não amplamente utilizado, e que, portanto, seu conteúdo precisa ser claramente definido para facilitar a aplicação e o cumprimento da lei posteriormente. O projeto de lei atual estipula apenas uma frase sobre o Comitê Nacional de Inteligência Artificial, que não define claramente: sua posição jurídica; suas funções, atribuições e poderes; sua estrutura organizacional e mecanismo de funcionamento; e sua relação com os ministérios e órgãos. Assim, o representante sugeriu esclarecer a necessidade de se estabelecer essa instituição e, ao mesmo tempo, avaliar sua conformidade com a política de racionalização do aparato, de acordo com os regulamentos do Partido. Caso se decida mantê-la, será necessário complementar os regulamentos ou incumbir o Governo de especificar detalhadamente as questões acima mencionadas.
Em relação aos atos proibidos, os delegados afirmaram que o projeto de lei ainda não os estipula, embora isso represente um importante "escudo legal" para proteger os direitos humanos, garantir a concorrência leal e cumprir os padrões internacionais. Por outro lado, a legislação mais avançada do mundo sobre Inteligência Artificial (IA) estipula claramente atos proibidos, como o abuso de dados pessoais, a discriminação sistemática, o uso da IA para fins prejudiciais, etc. Portanto, propõe-se a inclusão de um artigo específico sobre atos proibidos, baseado nos princípios de transparência, segurança, responsabilidade, supervisão humana, equidade, não discriminação e apoio à inovação controlada.

A delegada da Assembleia Nacional, Nguyen Thi Suu (cidade de Hue), discursou na sessão de debates da manhã de 21 de novembro. Foto: Ho Long
Comentários sobre o projeto de lei, deputados da Assembleia Nacional. Nguyen Thi Suu (Cidade de Hue) concentrou-se na análise das regulamentações relacionadas à infraestrutura, recursos humanos e estrutura ética da IA - pilares fundamentais que determinam a eficácia da implementação da Lei na prática.
Especificamente, no Capítulo III (Artigos 17 e 18), que regulamenta a infraestrutura de inteligência artificial, os delegados afirmaram que o roteiro para a implementação da infraestrutura nacional de IA, bem como os papéis dos ministérios, departamentos, localidades, empresas e institutos de pesquisa no processo de construção e operação, não foram claramente definidos. Os delegados propuseram complementar o plano de implementação específico com cronogramas, responsabilidades de cada órgão e mecanismos de monitoramento para garantir a viabilidade quando a lei for promulgada.
Em relação ao desenvolvimento de recursos humanos (Artigo 24), a delegada Nguyen Thi Suu afirmou que o projeto de lei apenas estabelece os objetivos, mas não prevê um mecanismo de apoio efetivo para instituições de ensino e alunos, como financiamento, padrões internacionais de formação ou programas conjuntos com empresas e institutos de pesquisa. Portanto, é necessário complementar as políticas de bolsas de estudo, apoiar a formação e promover parcerias público-privadas.
Em relação ao Marco Nacional de Ética em IA (Artigo 27), os delegados afirmaram que as regulamentações atuais são apenas de princípio e carecem de mecanismos para monitorar, avaliar e lidar com violações, o que dificulta sua aplicação prática. Além disso, o termo "ética em IA" não foi claramente definido e não atribui responsabilidades específicas a organizações e indivíduos em caso de violação. Portanto, os delegados propuseram a alteração do termo "revisão" para "pública" nas regulamentações sobre a atualização do marco ético; a inclusão de disposições sobre a criação de uma Autoridade Nacional de Ética em IA responsável por monitorar, avaliar e lidar com violações; a determinação das obrigações de conformidade para organizações e indivíduos que desenvolvem ou operam sistemas de IA de alto risco; a afirmação do caráter juridicamente vinculativo do Marco de Ética em IA, no qual as violações podem estar sujeitas a sanções administrativas ou criminais; e o incentivo à participação de organizações sociais, da academia e de empresas nas atividades de construção e avaliação da ética em IA. "Somente quando os mecanismos acima forem concluídos é que o Marco de Ética em IA poderá ser eficaz, garantindo que a tecnologia se desenvolva na direção correta, com segurança e para o bem das pessoas", enfatizou a delegada Nguyen Thi Suu.
Qual é a responsabilidade quando a IA comete erros?
Ao discutir o projeto de lei sobre Inteligência Artificial, o deputado da Assembleia Nacional Pham Nhu Hiep (Cidade de Hue) afirmou que a inteligência artificial está provocando mudanças profundas na área médica, desde cirurgias e diagnósticos até pesquisas científicas. O deputado citou que a cirurgia remota existe há mais de 20 anos e que, atualmente, muitos sistemas robóticos são capazes de realizar cirurgias endoscópicas sem intervenção humana direta. Com o rápido desenvolvimento da tecnologia, se permitido, a IA poderá assumir completamente algumas etapas cirúrgicas, chegando a ameaçar a função tradicional dos cirurgiões. No diagnóstico por imagem, a IA já é amplamente aplicada em hospitais, incluindo o Hospital Central de Hue, auxiliando na leitura de radiografias, tomografias computadorizadas e exames de imagem do cérebro.

O deputado da Assembleia Nacional, Pham Nhu Hiep (cidade de Hue), expressou suas opiniões sobre o projeto de lei de Inteligência Artificial no Grupo 6. Foto: Ho Long
No entanto, os participantes enfatizaram a necessidade de responsabilização quando a IA comete erros. Atualmente, todos os resultados da IA ainda precisam ser verificados e validados por médicos e radiologistas. Quando os resultados não correspondem à realidade clínica, o médico os edita e atualiza para que a IA possa continuar aprendendo. Esse processo de "aprendizado passivo" está sendo aplicado por muitos hospitais, mas ainda é necessário um arcabouço legal claro para garantir a segurança do paciente.
O delegado Pham Nhu Hiep também expressou preocupação com o impacto da IA na pesquisa científica, visto que softwares de verificação de plágio se popularizaram e algumas ferramentas de IA conseguem agora redigir quase uma tese de doutorado completa em apenas um dia, com base nos dados fornecidos. Isso representa um grande desafio para a ética em pesquisa e a integridade científica, e deve ser considerado para inclusão em regulamentações legais específicas.
Em relação à responsabilidade legal dos fornecedores de IA (Artigo 13), os delegados propuseram esclarecer a entidade responsável quando os sistemas de IA causam incidentes ou acidentes. O caso dos carros autônomos é um exemplo típico: se ocorrer uma colisão, é necessário determinar a responsabilidade do sistema, do fabricante ou da unidade de gestão operacional. O delegado citou o acidente com um carro da Tesla em 2015, que obrigou o fabricante a pagar uma grande indenização, afirmando que a IA não pode ser responsabilizada sozinha, mas a responsabilidade deve recair sobre os humanos – as organizações e os indivíduos que projetam, produzem e colocam o sistema em uso.
Referindo-se ao conceito de ética em IA, aplicado por muitos países para determinar quais ações de IA são permitidas e quais não são, o delegado Pham Nhu Hiep também reconheceu que, no contexto de sistemas de IA com capacidade de autoaprendizagem, autoconhecimento e até mesmo de ir além dos limites originais do fabricante, o desenvolvimento e a operação da IA devem ser enquadrados em um arcabouço legal e ético. Isso não só garante a segurança da sociedade, como também cria uma base para o desenvolvimento saudável da indústria de IA no Vietnã.
Para gerenciar a IA de forma eficaz, é necessário esclarecer os dados de entrada e a propriedade intelectual.
Concordando com as opiniões acima, o deputado da Assembleia Nacional Trinh Xuan An (Dong Nai) também fez uma série de comentários profundos relacionados ao projeto de lei sobre Inteligência Artificial, concentrando-se em grupos principais de questões: dados de entrada, propriedade intelectual, escopo de aplicação, abordagem de gerenciamento de riscos e modelo de organização de implementação.

A delegada da Assembleia Nacional Trinh Xuan An (Dong Nai) discursa no Grupo 6 na manhã de 21 de novembro. Foto: Ho Long
Em relação aos dados de entrada para IA, os delegados afirmaram que os dados são a base da inteligência artificial, mas o projeto de lei não esclareceu esse ponto. As regulamentações sobre dados estão atualmente previstas na Lei de Proteção de Dados e na Lei de Proteção de Dados Pessoais. Se não houver menção específica nessas leis, deve haver pelo menos uma referência completa. Os delegados concordaram com a exigência de que os dados sejam "corretos, suficientes, limpos e dinâmicos", mas enfatizaram a necessidade de adicionar o critério de que os dados devem ser sistematizados e continuamente atualizados, pois essa é uma condição para que a IA opere de forma eficaz e segura.
Em relação à propriedade intelectual, a deputada Trinh Xuan An, da Assembleia Nacional, comentou que o conteúdo da proposta ainda é muito vago, enquanto a IA é um produto humano e está intimamente ligada a questões de direitos autorais, titularidade, responsabilidade legal e ética. Se o componente de propriedade intelectual não for esclarecido na lei, a gestão da IA será muito difícil. Portanto, a deputada recomendou a alteração da Lei de Propriedade Intelectual e, ao mesmo tempo, a regulamentação das questões de titularidade nessa lei.
Em relação ao âmbito de aplicação, o delegado apontou a ilogicidade do Artigo 1º, que exclui a aplicação da IA para defesa nacional, segurança, criptografia e inteligência, enquanto as cláusulas seguintes abrem a possibilidade de ajustes caso esses sistemas sejam utilizados para outros fins. No ambiente digital, é difícil separar a IA para fins de segurança e defesa daqueles destinados a fins civis, visto que a IA pode ser aplicada simultaneamente na medicina, na indústria de defesa ou em sistemas não tripulados. Portanto, a exclusão por área não é viável. O delegado sugeriu a construção de um marco regulatório comum, em vez da divisão por finalidade de uso.

Deputados da Assembleia Nacional da província de Dong Nai durante a sessão de discussão do Grupo 6 na manhã de 21 de novembro. Foto: Ho Long
Em relação à abordagem de gestão e classificação de riscos, o delegado afirmou que a proposta está “aplicando” o modelo de gestão europeu, criando encargos desnecessários num contexto em que o Vietname precisa de incentivar o desenvolvimento da IA. A classificação de risco em quatro níveis, como na proposta, é complexa e inconsistente com a Lei da Qualidade do Produto. O delegado propôs a classificação em apenas dois grupos: produtos de IA com risco e produtos sem risco, combinando a gestão de riscos com a gestão baseada na eficiência da produção e no impacto económico. Acrescentou ainda que a regulamentação que permite às empresas autoavaliar os riscos e a atribuição de critérios ao Governo é “semi-fechada, semi-aberta”, sendo de difícil implementação na prática.
Em relação ao modelo de organização para a implementação, a deputada da Assembleia Nacional, Trinh Xuan An, expressou preocupação com a proposta de criação de um fundo financeiro extraorçamentário e de um Comitê Nacional de Inteligência Artificial. Segundo a deputada, é necessário avaliar cuidadosamente a necessidade dessas instituições, evitando a situação de "criar fundos e comitês para tudo", porém com baixa eficiência. Se realmente necessário, o fundo para Inteligência Artificial deve ser integrado aos fundos existentes, exceto em casos especiais, como fundos destinados à defesa e segurança nacional. A deputada também observou que a Inteligência Artificial deve estar vinculada às atividades econômicas e à iniciativa das empresas, portanto, o modelo de gestão precisa ser simplificado e orientado para a eficiência real.

Delegado da Assembleia Nacional Bui Xuan Thong (Dong Nai)
Concordando com a opinião acima, os deputados da Assembleia Nacional Nguyen Thi Nhu Y e Bui Xuan Thong (Dong Nai) também enfatizaram a importância da ética no uso da inteligência artificial. Segundo o deputado Bui Xuan Thong, se for estipulado que os usuários devem ser responsáveis pelas decisões tomadas pela IA, então, na realidade, a decisão final ainda é humana. A IA é apenas uma ferramenta para fornecer informações de referência. A pessoa que toma a decisão final é responsável por ela. Portanto, a ética deve se concentrar na responsabilidade humana no uso de informações provenientes da IA, e não em estipular que a IA deva ser responsável.
Em relação à questão do tratamento de violações, os delegados afirmaram que a minuta geralmente indica que elas podem ser tratadas administrativa, civil ou criminalmente, mas não define claramente os limites da responsabilidade. Portanto, recomenda-se definir claramente quais comportamentos estarão sujeitos à responsabilidade criminal, quais estarão sujeitos à responsabilidade administrativa e as responsabilidades específicas do provedor, do desenvolvedor e do usuário. Ao mesmo tempo, também é necessário complementar os comportamentos proibidos e reformular essa estrutura para torná-la mais clara, tanto para criar condições favoráveis ao desenvolvimento da IA quanto para definir claramente as responsabilidades das partes envolvidas.
Fonte: https://daibieunhandan.vn/artificial-intelligence-must-operate-in-the-law-and-moral-system-10396524.html






Comentário (0)