Sr. Nguyen Manh Hung - Ministro da Ciência e Tecnologia discursando no workshop - Foto: NGUYEN BAO
Os comentários foram feitos pelo Ministro da Ciência e Tecnologia na conferência científica Poder ilimitado e desafios imprevisíveis da inteligência artificial (IA) - impactos negativos e respostas políticas, que ocorreu na manhã de 15 de setembro.
A IA apresenta desafios sem precedentes
No workshop, os palestrantes destacaram a natureza bilateral da IA, avaliações abrangentes de seu impacto na economia , educação, saúde, cultura, desenvolvimento sustentável, defesa nacional e governança de segurança, etc.
De acordo com o General Luong Tam Quang, Ministro da Segurança Pública, na quarta revolução industrial, a inteligência artificial (IA) é considerada uma das principais tecnologias, um fator que pode levar a mudanças na ordem global no futuro.
Com a capacidade de promover o crescimento econômico, otimizar a produção, melhorar a assistência médica, inovar a educação e aumentar a capacidade de governança social, a IA ajuda os países a economizar custos, aumentar a eficiência, expandir o conhecimento e é um recurso, uma força e uma força motriz para afirmar a posição nacional na era digital.
Além do seu potencial, a IA também apresenta desafios sem precedentes em termos de lacunas legais, riscos éticos, abuso de tecnologia para crimes cibernéticos, guerra de informação, violações de privacidade de dados e, especialmente, o risco de impacto na defesa e segurança nacional.
General Luong Tam Quang, Ministro da Segurança Pública, discursa na conferência - Foto: NGUYEN BAO
O professor Nguyen Xuan Thang, diretor da Academia Nacional de Política de Ho Chi Minh, disse que, além de seu grande potencial, a IA tem muitos riscos sérios e imprevisíveis.
Uma preocupação particular é a potencial perda de controle sobre sistemas de IA de autoaprendizagem e autoadaptação, especialmente à medida que eles evoluem além da compreensão e supervisão humanas.
De acordo com o Sr. Thang, a IA tem causado impactos negativos no mercado de trabalho, já que muitas ocupações tradicionais estão sendo substituídas, levando a um risco maior de desemprego, especialmente para trabalhadores não qualificados ou aqueles sem habilidades digitais.
Em particular, se os dados de treinamento forem tendenciosos, a IA reproduzirá e amplificará os preconceitos sociais, levando a decisões tendenciosas e injustas.
Além disso, a IA também pode ser explorada para atividades perigosas, como fraudes on-line, disseminação de notícias falsas, vozes e imagens falsas (deepfake), causando confusão pública e afetando a segurança e a ordem social; sendo explorada para conduzir ataques cibernéticos sofisticados para infiltrar e destruir sistemas de informação, infraestrutura importante ou roubar dados e segredos nacionais.
"A corrida para desenvolver IA entre países corre o risco de criar desequilíbrios estratégicos e promover tensões militares, especialmente na ausência de estruturas legais internacionais para controlar o uso de IA em defesa e segurança.
Portanto, a IA é tanto uma ferramenta para aprimorar as capacidades de defesa e segurança quanto uma fonte potencial de riscos à paz e à segurança mundial se não for usada de forma responsável e transparente", disse o Sr. Thang.
Prof. Dr. Nguyen Xuan Thang - Diretor da Academia Nacional de Política de Ho Chi Minh - discursando na conferência - Foto: NGUYEN BAO
Problemas de IA que podem ser resolvidos pela própria IA
Na conferência, o Sr. Nguyen Manh Hung, Ministro da Ciência e Tecnologia, disse que o Vietnã lançou sua primeira estratégia de IA em 2021. Mas a IA é um campo em rápida mudança, e haverá uma atualização da estratégia nacional de IA e da Lei de IA até o final deste ano.
De acordo com o Ministro Nguyen Manh Hung, esta não é apenas uma estrutura legal, mas também uma declaração de visão nacional. A IA deve se tornar a infraestrutura intelectual do país, servindo ao povo, desenvolvendo-se de forma sustentável e aumentando a competitividade nacional.
A IA abre grandes oportunidades, mas também levanta muitas questões relacionadas à ética, ao emprego e à confiança social. Portanto, o Vietnã precisa desenvolver uma IA que seja rápida, segura e humana.
A IA é para humanos, não substitui humanos, mas serve aos humanos. A IA é uma assistente para humanos. A IA é uma ferramenta poderosa, mas os humanos são os tomadores de decisão. Deixe a IA apoiar, não substituir, o pensamento, os valores e as responsabilidades humanas.
O Ministro Nguyen Manh Hung comentou: "O poder da IA pode ser maior que o da energia nuclear e, portanto, seus problemas podem ser maiores que as bombas atômicas. Mas a IA e seus problemas são gêmeos, como o yin e o yang, como dois lados de uma moeda, dependendo um do outro para coexistir e se desenvolver, e eles se transformam mutuamente.
Problemas de IA podem ser resolvidos pela própria IA, por exemplo, treinando recursos humanos de IA com a própria tecnologia de IA, detectando violações éticas de IA também com a própria IA.
A IA cresce com os problemas que cria. Sem problemas de IA, não haverá crescimento da IA. IA e problemas de IA são um grande "e". A IA e seus problemas sempre existirão; não podemos eliminá-los, mas devemos conviver com eles e gerenciá-los com sabedoria.
Código nacional de ética da IA será emitido
De acordo com o Ministro Nguyen Manh Hung, um código nacional de ética em IA será emitido em breve, em harmonia com os padrões internacionais, mas projetado para se adequar à prática vietnamita, e a Lei de IA e a estratégia de IA serão construídas de acordo com os seguintes pontos de vista principais:
Primeiro, gerencie por nível de risco.
Segundo, transparência e responsabilização.
Terceiro, coloque as pessoas no centro.
Quarto, incentivar o desenvolvimento doméstico da IA e a autonomia da IA.
Quinto, considere a IA como uma força motriz para um crescimento rápido e sustentável.
Sexto, proteger a soberania digital. Dados, infraestrutura e tecnologia de IA são os três pilares estratégicos da soberania digital.
Fonte: https://tuoitre.vn/bo-truong-nguyen-manh-hung-van-de-cua-ai-tao-ra-co-the-lon-hon-bom-nguyen-tu-20250915103427851.htm
Comentário (0)