Rotulagem de produtos gerados por IA

Enfatizando o mecanismo de controle de riscos para IA na vida atual, o deputado Nguyen Tam Hung (Cidade de Ho Chi Minh) expressou sua opinião de que o projeto de lei que exige que os fornecedores garantam a marcação legível por máquina para conteúdo de IA é muito necessário; no entanto, ele sugeriu considerar a adição de um requisito obrigatório para exibir informações de identificação diretamente na interface interativa quando o conteúdo apresentar risco de causar confusão, a fim de proteger os usuários comuns, especialmente crianças e idosos, do risco de desinformação e deepfakes. Essa regulamentação reforça a responsabilidade social dos fornecedores de tecnologia e constrói confiança digital para as pessoas.
Além disso, o deputado Nguyen Tam Hung afirmou que, por meio de pesquisas, descobriu que o modelo de IA multifuncional atual não apenas cria texto ou imagens, mas também pode gerar código-fonte, ferramentas de ataque, instruções de execução, processos de ataques cibernéticos, métodos de fraude financeira, etc. A partir disso, o deputado propôs adicionar a obrigatoriedade de controlar a "capacidade de autogeração" do modelo ao permitir a geração de código-fonte, e que um mecanismo para alertar, bloquear e limitar a saída é necessário para garantir a segurança da rede, a ordem social e a segurança.

Ao abordar também os riscos criados pela IA, o deputado Pham Van Hoa ( Dong Thap ) afirmou que, embora a tecnologia de IA seja uma ferramenta para auxiliar os humanos, ela traz consigo muitos riscos elevados; o deputado solicitou à comissão de redação que fizesse uma avaliação objetiva e precisa sobre o assunto.
“Os riscos podem afetar vidas humanas, propriedades, direitos e interesses legítimos de organizações e indivíduos”, disse o deputado Pham Van Hoa, acrescentando que deveria haver rótulos para produtos criados por IA. Segundo ele, rotular a IA serve para que as pessoas saibam quais produtos foram criados por IA e quais não foram.

Entretanto, a Deputada Trinh Thi Tu Anh ( Lam Dong ) afirmou que o Artigo 11 do projeto de lei não reflete plenamente a avaliação de riscos com base nos impactos tecnológicos. Segundo ela, no contexto atual, a IA pode criar métodos prejudiciais nunca antes identificados. Portanto, a Deputada Trinh Thi Tu Anh propôs a inclusão da seguinte disposição: "O Governo deverá especificar detalhadamente e atualizar e complementar periodicamente a lista de sistemas de inteligência artificial com riscos inaceitáveis, com base na avaliação de riscos, nas tendências tecnológicas e nas necessidades práticas de gestão." De acordo com ela, esse mecanismo garante que a lei não se torne obsoleta e possa responder rapidamente a novos riscos.
Evitando o abuso da IA
A deputada Tran Khanh Thu (Hung Yen) levantou a questão da IA no apoio a exames e tratamentos médicos, afirmando que a IA não só ajuda a otimizar processos na área da saúde, reduzindo a carga de trabalho de médicos e profissionais da saúde, como também desempenha um papel importante na personalização do tratamento, melhorando assim os resultados dos cuidados de saúde e aumentando a eficiência na utilização de recursos. No entanto, a aplicação da IA na detecção de sinais de saúde pode, por vezes, ser contraproducente.

A delegada citou um exemplo real de um paciente de 55 anos na cidade de Ho Chi Minh que chegava ao hospital em estado letárgico. Antes disso, a família do paciente utilizou inteligência artificial para realizar o diagnóstico e, em seguida, comprou medicamentos para ele. Após o uso dos remédios, o estado do paciente piorou e, ao ser levado ao hospital, foi diagnosticado com lesão cerebral, acidente vascular cerebral e sequelas inevitáveis.
“Sem dúvida, as pessoas não devem usar resultados de busca para diagnosticar ou prescrever medicamentos. No entanto, será que quem vende medicamentos com base em prescrições geradas por IA está infringindo a lei?”, questionou o deputado Tran Khanh Thu, expressando a esperança de que o projeto de lei sobre Inteligência Artificial inclua disposições legais mais específicas para a gestão de produtos de inteligência artificial no setor da saúde, especialmente no que diz respeito às responsabilidades das partes envolvidas.
Em relação à mudança de auditoria posterior para auditoria prévia no projeto de lei, o deputado Tran Khanh Thu sugeriu que deveria haver um limite quantitativo claro, por exemplo, quando o modelo altera seu algoritmo, aumenta o número de usuários ou os dados de treinamento excedem um limite específico.

Analisando mais a fundo o "abuso da IA", o deputado Pham Trong Nghia (Lang Son) afirmou que, se dependermos demais da IA em nossas vidas, isso reduzirá nossa capacidade de raciocínio e criatividade. O abuso da IA apresenta muitas instabilidades potenciais, como: violação da soberania nacional, redução da eficácia da administração pública e impacto negativo sobre cada indivíduo e cada família, especialmente a geração mais jovem.
“Para o setor público, o uso indevido da IA reduz a viabilidade, a humanidade e a eficácia das políticas e leis. Fornecer informações e dados sensíveis à IA, se não for rigorosamente controlado, pode levar a vazamentos de dados, prejudicando a segurança nacional, a ordem social e a segurança, com consequências imprevisíveis”, disse o deputado Pham Trong Nghia, que propôs a inclusão de uma disposição no projeto de lei estipulando atos proibidos, incluindo a proibição do uso indevido da IA no setor público.
Fonte: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Comentário (0)