A capacidade do modelo de raciocinar, resolver problemas matemáticos complexos e responder a questões de pesquisa científica é vista como um grande passo em frente no esforço para desenvolver inteligência artificial geral (IAG) – máquinas com habilidades cognitivas semelhantes às humanas.
A OpenAI afirmou que foi particularmente “cautelosa” na forma como disponibilizou o modelo o1 ao público, dadas as suas capacidades avançadas. Foto: Getty Images
Segundo o Financial Times, a OpenAI classificou o risco desses novos modelos como "médio" para questões relacionadas a armas químicas, biológicas, radiológicas e nucleares (QBRN), a avaliação mais alta já feita pela empresa. Isso significa que a tecnologia "melhorou significativamente" a capacidade dos especialistas de criar armas biológicas.
Especialistas afirmam que softwares de inteligência artificial capazes de raciocínio detalhado, especialmente nas mãos de pessoas mal-intencionadas, podem aumentar o risco de abuso.
O professor Yoshua Bengio, cientista de IA de renome mundial da Universidade de Montreal, enfatizou que esse nível de risco moderado aumenta a urgência de regulamentações para IA, como o projeto de lei SB 1047, atualmente em debate na Califórnia. Esse projeto exige que os criadores de IA tomem medidas para reduzir o risco de seus modelos serem usados indevidamente para o desenvolvimento de armas biológicas.
Segundo o The Verge, a segurança dos modelos de IA tornou-se uma grande preocupação, visto que empresas de tecnologia como Google, Meta e Anthropic estão numa corrida para construir e aprimorar sistemas avançados de IA.
Esses sistemas têm o potencial de trazer grandes benefícios, ajudando os humanos a concluir tarefas e auxiliando em diversas áreas, mas também apresentam desafios em termos de segurança e responsabilidade social.
Cao Phong (de acordo com o FT, Reuters e The Verge)
Fonte: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






Comentário (0)