A capacidade do modelo de raciocinar, resolver problemas matemáticos complexos e responder a perguntas de pesquisas científicas é vista como um grande passo à frente no esforço de desenvolver inteligência artificial geral (IAG) - máquinas com habilidades cognitivas semelhantes às humanas.
A OpenAI afirmou ser particularmente "cautelosa" sobre como apresentar o modelo o1 ao público, considerando seus recursos avançados. Foto: Getty Images
De acordo com o Financial Times, a OpenAI classificou o risco desses novos modelos como "médio" para questões relacionadas a armas químicas, biológicas, radiológicas e nucleares (QBRN), o mais alto já avaliado pela empresa. Isso significa que a tecnologia "melhorou significativamente" a capacidade dos especialistas de criar armas biológicas.
Especialistas dizem que softwares de IA capazes de raciocínio detalhado, especialmente nas mãos de pessoas mal-intencionadas, podem aumentar o risco de abuso.
O professor Yoshua Bengio, cientista de IA de renome mundial da Universidade de Montreal, enfatizou que esse nível de risco médio aumenta a urgência de regulamentações de IA, como a SB 1047, atualmente em debate na Califórnia. Este projeto de lei exige que os fabricantes de IA tomem medidas para reduzir o risco de seus modelos serem utilizados indevidamente para desenvolver armas biológicas.
De acordo com o The Verge, a segurança dos modelos de IA se tornou uma grande preocupação, pois empresas de tecnologia como Google, Meta e Anthropic estão correndo para construir e melhorar sistemas avançados de IA.
Esses sistemas têm o potencial de trazer grandes benefícios ao ajudar humanos a concluir tarefas e auxiliar em diversas áreas, mas também representam desafios em termos de segurança e responsabilidade social.
Cao Phong (de acordo com FT, Reuters, The Verge)
[anúncio_2]
Fonte: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Comentário (0)