SGGP
Num esforço para reforçar a regulamentação da IA, legisladores-chave da União Europeia (UE) concordaram com diversas alterações ao projeto de regulamentação sobre inteligência artificial (IA) para conter a IA inovadora (IA generativa), como o ChatGPT.
| A Panasonic Connect ajudou funcionários no Japão a usar sistemas de IA para melhorar a produtividade. (Foto: Nikkei Asia) |
Expectativas para a primeira lei completa
A votação de 11 de maio sobre o projeto de lei de regulamentação da IA marcou um novo passo no processo de aprovação de legislação formal que regulamente ferramentas de IA como o ChatGPT. As comissões do Parlamento Europeu responsáveis pela proteção do consumidor e pelas liberdades civis aprovaram o texto preliminar, afirmando a necessidade de controlar o uso da IA na UE, promovendo a inovação nesta área, mas respeitando os direitos fundamentais, segundo os quais a IA deve servir as pessoas, a sociedade e o meio ambiente.
Após dois anos de discussões, espera-se que a Lei de IA se torne a primeira legislação abrangente a regulamentar essa tecnologia na UE, pois inclui disposições que proíbem o uso de tecnologia de reconhecimento facial em locais públicos (o que se prevê que cause conflitos entre os países da UE) e ferramentas que utilizam algoritmos para prever comportamentos criminosos, aplicativos gerados por IA, como o ChatGPT da OpenAI, verificação biométrica, etc. Consequentemente, esses aplicativos deverão enviar notificações aos usuários informando-os de que os produtos dessas ferramentas são criados por máquinas, e não por humanos.
Este documento também inclui disposições que exigem a adição de critérios para identificar áreas de alto risco para aplicações de IA, limitando assim a escala do desenvolvimento de ferramentas. As ferramentas de IA serão classificadas de acordo com o nível de risco que cada uma possa representar. Governos e empresas que utilizam essas ferramentas estarão sujeitos a diferentes obrigações, dependendo do nível de risco.
No próximo mês, a minuta do texto será submetida ao Parlamento Europeu para aprovação, antes de ser enviada aos Estados-Membros da UE para análise e aprimoramento. Embora a lista proposta pela Comissão Europeia (CE) já inclua usos de IA na gestão de infraestruturas críticas, educação , gestão da força de trabalho, ordem pública e imigração, os eurodeputados também querem adicionar limites regulamentares que definam as ameaças à segurança, à saúde e aos direitos fundamentais.
O Japão assumirá a liderança.
Muitos países também estão buscando soluções para o dilema de, simultaneamente, evitar que suas indústrias nacionais fiquem para trás e abordar as preocupações com a privacidade dos cidadãos.
Na Ásia, o Conselho de Estratégia de IA do governo japonês foi convocado pela primeira vez com o objetivo de estabelecer uma estrutura para orientar o desenvolvimento da IA. Em seu discurso perante o conselho, o primeiro-ministro Fumio Kishida afirmou: “A IA tem o potencial de transformar positivamente nossa sociedade e economia , mas também acarreta riscos. É crucial abordar ambas as questões de forma adequada.”
O uso da tecnologia de IA contribuirá para o aumento da competitividade industrial e para a solução de problemas sociais, mas deve ser utilizado de forma racional e com riscos mínimos para os usuários. No entanto, até o momento, as discussões têm se concentrado principalmente em aspectos técnicos. Especialistas japoneses defendem que, no futuro, as discussões devem ser conduzidas a partir de uma perspectiva mais ampla, envolvendo áreas como negócios e direito. O Nikkei Asia sugere que um desafio para o Japão é como aprimorar o nível de desenvolvimento de IA internamente, ao mesmo tempo em que regulamenta o uso geral da IA, onde segurança, privacidade e direitos autorais são questões cruciais.
A inteligência artificial (IA) está começando a impactar o cotidiano, com o aumento de imagens e vídeos falsos, bem como textos gerados por robôs, que levantam preocupações que vão da segurança nacional à desinformação. Os ministros de tecnologia e do digital do G7 (Grupo dos Sete) concordaram em elaborar diretrizes sobre o desenvolvimento e o uso da IA até o final deste ano. Com o Japão assumindo a presidência do G7 em 2023, o primeiro-ministro Kishida declarou que o país liderará o desenvolvimento de normas internacionais para aproveitar ao máximo as perspectivas e lidar com os riscos representados pela IA.
Assim como o Japão, a Casa Branca anunciou na semana passada que investirá US$ 140 milhões para estabelecer sete centros de pesquisa em IA e divulgar diretrizes sobre o uso dessa tecnologia avançada, visando criar regras que minimizem os riscos sem impedir o desenvolvimento de aplicações inovadoras de IA. Em discurso perante o Conselho de Assessores de Ciência e Tecnologia, o presidente dos EUA, Joe Biden, enfatizou que a IA pode ajudar a enfrentar alguns desafios muito difíceis, como doenças e mudanças climáticas, mas também devemos abordar os riscos potenciais para a sociedade, a economia e a segurança nacional. As empresas de tecnologia têm a responsabilidade de garantir que seus produtos sejam seguros antes de serem lançados no mercado.
Fonte







Comentário (0)