O modelo é capaz de raciocinar, resolver problemas matemáticos complexos e responder a perguntas de pesquisas científicas , o que é considerado um importante passo à frente no esforço de desenvolver inteligência artificial geral (AGI) - máquinas com habilidades cognitivas semelhantes às dos humanos.
A OpenAI afirmou estar particularmente "cautelosa" sobre como disponibilizaria o modelo o1 ao público, considerando seus recursos avançados. Foto: Getty Images
De acordo com o Financial Times, a OpenAI classificou o risco desses novos modelos como "médio" para questões relacionadas a armas químicas, biológicas, radiológicas e nucleares (QBRN), o mais alto já avaliado pela empresa. Isso significa que a tecnologia "melhorou significativamente" a capacidade dos especialistas de criar armas biológicas.
De acordo com especialistas, softwares de IA capazes de raciocínio detalhado, especialmente nas mãos de pessoas mal-intencionadas, podem aumentar o risco de abuso.
O professor Yoshua Bengio, cientista de IA de renome mundial da Universidade de Montreal, enfatizou que esse nível de risco médio aumenta a urgência de regulamentações de IA, como a SB 1047, atualmente em debate na Califórnia. Este projeto de lei exige que os fabricantes de IA tomem medidas para reduzir o risco de seus modelos serem utilizados indevidamente para desenvolver armas biológicas.
De acordo com o The Verge, a segurança dos modelos de IA se tornou uma grande preocupação, pois empresas de tecnologia como Google, Meta e Anthropic estão correndo para construir e melhorar sistemas avançados de IA.
Esses sistemas têm o potencial de proporcionar grandes benefícios ao ajudar humanos a concluir tarefas e fornecer assistência em diversas áreas, mas também representam desafios de segurança e responsabilidade social.
Cao Phong (de acordo com FT, Reuters, The Verge)
Fonte: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Comentário (0)