:Celular mostrando a interface de aprendizagem GPT-o1 da OpenAI - Foto: FINANCIAL TIMES
De acordo com o Financial Times de 13 de setembro, a empresa OpenAI admitiu que o modelo GPT-o1, lançado em 12 de setembro, aumenta "significativamente" o risco de a inteligência artificial (IA) ser explorada para criar armas biológicas.
Um documento que explica o funcionamento do GPT-o1, publicado pela OpenAI, afirma que o novo modelo possui um "nível de risco médio" para questões relacionadas a armas químicas, biológicas, radiológicas e nucleares. Este é o nível de risco mais alto que a OpenAI já atribuiu aos seus modelos de IA.
De acordo com a OpenAI, isso significa que o GPT-o1 poderia "melhorar drasticamente" a capacidade de especialistas que querem usá-lo para criar armas biológicas.
Mira Murati, diretora de tecnologia (CTO) da OpenAI, disse que, embora o GPT-o1 ainda esteja em fase de testes, os recursos avançados do modelo ainda forçam a empresa a ser extremamente "cautelosa" sobre seu roteiro para o público.
A Sra. Murati também confirmou que o modelo foi exaustivamente testado por uma equipe multidisciplinar de especialistas contratados pela OpenAI para testar os limites do modelo desenvolvido pela empresa.
O processo de testes mostrou que o modelo GPT-o1 atende aos critérios gerais de segurança muito melhor do que seus antecessores, compartilhou a Sra. Murati.
Não parando por aí, representantes da OpenAI também garantiram que a versão de teste do GPT-o1 é "segura para implantação" e não pode criar riscos mais complexos do que as tecnologias desenvolvidas.
Apesar das garantias acima, grande parte da comunidade científica e dos interessados em IA ainda não estão muito otimistas quanto à direção do desenvolvimento desta tecnologia.
Estão crescendo as preocupações de que a IA esteja se desenvolvendo muito rapidamente e ultrapassando o desenvolvimento e a aprovação de regulamentações que a regem.
O professor Yoshua Bengio, formado em ciência da computação pela Universidade de Montreal e um dos principais cientistas de IA do mundo , disse que se a OpenAI agora representa um "risco médio" de armas químicas e biológicas, "isso só reforça a importância e a urgência" de leis, como a que está sendo acaloradamente debatida na Califórnia para regulamentar o campo.
Este cientista enfatizou que as instituições acima são especialmente necessárias no contexto da IA se aproximando cada vez mais do nível de inteligência artificial geral (IAG), o que significa ter a capacidade de raciocinar em pé de igualdade com os humanos.
"Quanto mais os modelos pioneiros de IA se aproximam da IAG, maiores serão os riscos se as devidas precauções não forem tomadas. A capacidade aprimorada de raciocínio da IA e seu uso para fraudes são extremamente perigosos", avaliou o Sr. Bengio.
[anúncio_2]
Fonte: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Comentário (0)