Telefone mostrando a interface de aprendizado do GPT-O1 da OpenAI - Foto: FINANCIAL TIMES
Segundo o Financial Times , em 13 de setembro, a empresa OpenAI admitiu que o modelo GPT-o1, lançado em 12 de setembro, aumenta "significativamente" o risco de a inteligência artificial (IA) ser explorada para a criação de armas biológicas.
Um documento publicado pela OpenAI explicando o funcionamento do GPT-o1 afirma que o novo modelo possui um "nível de risco médio" para questões relacionadas a armas químicas, biológicas, radiológicas e nucleares. Este é o nível de risco mais alto já atribuído pela OpenAI a seus modelos de IA.
Segundo a OpenAI, isso significa que o GPT-o1 poderia "melhorar drasticamente" a capacidade de especialistas que desejam usá-lo para criar armas biológicas.
Mira Murati, diretora de tecnologia (CTO) da OpenAI, afirmou que, embora o GPT-o1 ainda esteja em fase de testes, as capacidades avançadas do modelo obrigam a empresa a ser extremamente cautelosa em relação ao seu plano de divulgação ao público.
A Sra. Murati também confirmou que o modelo foi exaustivamente testado por uma equipe multidisciplinar de especialistas contratada pela OpenAI para testar os limites do modelo desenvolvido pela empresa.
O processo de testes demonstrou que o modelo GPT-o1 atende aos critérios gerais de segurança muito melhor do que seus antecessores, afirmou a Sra. Murati.
Não parando por aí, os representantes da OpenAI também garantiram que a versão de teste do GPT-o1 é "segura para implantação" e não pode criar riscos mais complexos do que as tecnologias já desenvolvidas.
Apesar das garantias acima, grande parte da comunidade científica e dos interessados em IA ainda não estão muito otimistas quanto à direção de desenvolvimento dessa tecnologia.
Crescem as preocupações de que a IA esteja se desenvolvendo muito rapidamente e ultrapassando o desenvolvimento e a aprovação das regulamentações que a regem.
O professor Yoshua Bengio, formado em ciência da computação pela Universidade de Montreal e um dos principais cientistas de IA do mundo , afirmou que, se a OpenAI agora representa um "risco médio" de armas químicas e biológicas, "isso apenas reforça a importância e a urgência" de leis, como a que está sendo intensamente debatida na Califórnia, para regulamentar a área.
Este cientista enfatizou que as instituições acima mencionadas são especialmente necessárias no contexto da IA, que se aproxima cada vez mais do nível de inteligência artificial geral (AGI), ou seja, que possui a capacidade de raciocinar em pé de igualdade com os humanos.
"Quanto mais próximos os modelos pioneiros de IA chegarem da Inteligência Artificial Geral (IAG), maiores serão os riscos se as devidas precauções não forem tomadas. A capacidade de raciocínio aprimorada da IA e seu uso para fraudes são extremamente perigosos", avaliou o Sr. Bengio.
Fonte: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm






Comentário (0)