Um grupo de importantes especialistas internacionais se reuniu em Pequim na semana passada, onde identificaram “linhas vermelhas” no desenvolvimento da IA, incluindo a criação de armas biológicas e a realização de ataques cibernéticos.
Em uma declaração dias após a reunião, os acadêmicos alertaram que uma abordagem comum à segurança da IA é necessária para evitar “riscos catastróficos ou mesmo existenciais para a humanidade em nossas vidas”.
“No auge da Guerra Fria, a cooperação científica e governamental internacional ajudou a prevenir a catástrofe nuclear. A humanidade precisa, mais uma vez, trabalhar em conjunto para evitar a catástrofe que poderia surgir de uma tecnologia sem precedentes”, afirma o comunicado.
Especialistas do Diálogo Internacional sobre Segurança da IA, em Pequim, identificaram “linhas vermelhas” no desenvolvimento da IA. Foto: FT
Os signatários incluem Geoffrey Hinton e Yoshua Bengio, frequentemente descritos como os "pais" da IA; Stuart Russell, professor de ciência da computação na Universidade da Califórnia; e Andrew Yao, um dos cientistas da computação mais proeminentes da China.
A declaração foi feita após o Diálogo Internacional sobre Segurança de IA em Pequim na semana passada, uma reunião da qual participaram autoridades do governo chinês para expressar sua aprovação ao fórum e seus resultados.
O presidente dos EUA, Joe Biden, e o presidente chinês, Xi Jinping, se encontraram em novembro do ano passado e discutiram a segurança da IA, concordando em estabelecer um diálogo sobre o assunto. As principais empresas de IA do mundo também se reuniram em particular com especialistas chineses em IA nos últimos meses.
Em novembro de 2023, 28 países, incluindo a China, e empresas líderes em IA concordaram com um amplo compromisso de trabalhar juntos para abordar os riscos existenciais decorrentes da IA avançada na cúpula de segurança de IA do chanceler do Reino Unido, Rishi Sunak.
Em Pequim, na semana passada, especialistas discutiram as ameaças associadas ao desenvolvimento da “Inteligência Geral Artificial — AGI”, ou sistemas de IA que são iguais ou superiores aos humanos.
“O foco central da discussão foram as linhas vermelhas que nenhum sistema de IA poderoso deve cruzar e que governos ao redor do mundo devem impor no desenvolvimento e implantação de IA”, disse Bengio.
Essas linhas vermelhas garantiriam que “nenhum sistema de IA pode se replicar ou melhorar sem consentimento e apoio humano explícito” ou “tomar ações que aumentem indevidamente seu poder e influência”.
Os cientistas acrescentaram que nenhum sistema “aumentaria significativamente a capacidade dos atores de projetar armas de destruição em massa, violar a convenção sobre armas biológicas ou químicas” ou ser capaz de “conduzir automaticamente ataques cibernéticos que resultem em perdas financeiras graves ou danos equivalentes”.
Hoang Hai (de acordo com o FT)
Fonte
Comentário (0)