Um grupo de importantes especialistas internacionais se reuniu em Pequim na semana passada, onde identificaram “linhas vermelhas” no desenvolvimento da IA, incluindo a criação de armas biológicas e a realização de ataques cibernéticos.
Em uma declaração dias após a reunião, os acadêmicos alertaram que uma abordagem comum à segurança da IA é necessária para evitar “riscos catastróficos ou mesmo existenciais para a humanidade em nossas vidas”.
“No auge da Guerra Fria, a cooperação internacional entre governos e cientistas ajudou a prevenir uma catástrofe nuclear. A humanidade precisa, mais uma vez, trabalhar em conjunto para evitar a catástrofe que poderia surgir de uma tecnologia sem precedentes”, afirma o comunicado.
Especialistas do Diálogo Internacional sobre Segurança da IA, em Pequim, identificaram “linhas vermelhas” no desenvolvimento da IA. Foto: FT
Os signatários incluem Geoffrey Hinton e Yoshua Bengio, frequentemente descritos como os "pais" da IA; Stuart Russell, professor de ciência da computação na Universidade da Califórnia; e Andrew Yao, um dos cientistas da computação mais proeminentes da China.
A declaração foi feita após o Diálogo Internacional sobre Segurança de IA em Pequim na semana passada, uma reunião da qual participaram autoridades do governo chinês para expressar sua aprovação ao fórum e seus resultados.
O presidente dos EUA, Joe Biden, e o presidente chinês, Xi Jinping, se encontraram em novembro do ano passado e discutiram a segurança da IA, concordando em estabelecer um diálogo sobre o assunto. Empresas líderes globais de IA também se reuniram em particular com especialistas chineses em IA nos últimos meses.
Em novembro de 2023, 28 países, incluindo a China, e empresas líderes de IA concordaram com um amplo compromisso de trabalhar juntos para abordar os riscos existenciais decorrentes da IA avançada durante a cúpula de segurança de IA do chanceler do Reino Unido, Rishi Sunak.
Em Pequim, na semana passada, especialistas discutiram ameaças associadas ao desenvolvimento da “Inteligência Geral Artificial – AGI”, ou sistemas de IA que são iguais ou superiores aos humanos.
“O foco principal da discussão foram as linhas vermelhas que nenhum sistema de IA poderoso deve cruzar e que governos ao redor do mundo devem impor no desenvolvimento e implantação de IA”, disse Bengio.
Essas linhas vermelhas garantiriam que “nenhum sistema de IA pode se replicar ou melhorar sem consentimento e apoio humano explícito” ou “tomar ações que aumentem indevidamente seu poder e influência”.
Os cientistas acrescentaram que nenhum sistema “aumentaria significativamente a capacidade dos atores de projetar armas de destruição em massa, violar a convenção sobre armas biológicas ou químicas” ou ser capaz de “realizar automaticamente ataques cibernéticos que resultem em perdas financeiras graves ou danos equivalentes”.
Hoang Hai (de acordo com o FT)
[anúncio_2]
Fonte
Comentário (0)