A empresa taiwanesa Foxconn anunciou hoje (10 de março) que desenvolveu seu primeiro modelo de linguagem em larga escala e planeja usar a tecnologia para melhorar a fabricação e o gerenciamento da cadeia de suprimentos.
O modelo — apelidado de “FoxBrain” — foi treinado usando 120 GPUs H100 da Nvidia e concluído em cerca de quatro semanas, afirma o maior fabricante de chips contratado do mundo .
A Foxconn lança o primeiro grande modelo de linguagem, muito próximo dos padrões líderes mundiais.
A empresa, que monta iPhones para a Apple e também fabrica os servidores de inteligência artificial da Nvidia, disse que o modelo é baseado na arquitetura Llama 3.1 da Meta.
Este é o primeiro grande modelo de linguagem de Taiwan com recursos de inferência, otimizado para estilos de linguagem chinês tradicional e taiwanês.
A Foxconn disse que, embora haja uma pequena lacuna de desempenho em comparação ao modelo destilado da DeepSeek da China, o desempenho geral do FoxBrain está muito próximo dos padrões líderes mundiais.
Originalmente projetado para aplicações internas, o FoxBrain inclui análise de dados, suporte a decisões, colaboração em documentos, matemática, raciocínio e resolução de problemas e geração de código de programação.
A Foxconn planeja trabalhar com parceiros de tecnologia para expandir as aplicações do modelo, compartilhar informações de código aberto e alavancar a inteligência artificial na fabricação, no gerenciamento da cadeia de suprimentos e na tomada de decisões inteligentes.
De acordo com a Foxconn, a Nvidia forneceu suporte por meio do supercomputador "Taipei-1" localizado em Taiwan e forneceu consultoria técnica durante o treinamento do modelo.
O Taipei-1, o maior supercomputador de Taiwan, pertence e é operado pela Nvidia em Kaohsiung, uma cidade no sul da ilha.
A Foxconn deve anunciar mais detalhes sobre o modelo na conferência de desenvolvedores GTC da Nvidia em meados de março.
(Fonte: Reuters)
[anúncio_2]
Fonte: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
Comentário (0)