A Nvidia divulgou, em 3 de dezembro, novos dados que mostram que seu novo servidor de inteligência artificial (IA) é capaz de melhorar o desempenho de modelos avançados de IA, incluindo modelos populares da China, em até 10 vezes em comparação com a geração anterior de servidores.
Os dados surgem num momento em que a indústria de IA muda o seu foco do treino de modelos, uma área em que a Nvidia lidera atualmente, para a implementação de modelos para milhões de utilizadores, uma área que tem assistido a uma concorrência crescente de rivais como a Advanced Micro Devices (AMD) e a Cerebras.
A Nvidia afirma que essas melhorias provêm, em grande parte, de sua capacidade de integrar um grande número de chips em um único servidor e das conexões de alta velocidade entre eles, uma área em que ainda lidera e mantém uma clara vantagem sobre seus concorrentes. O servidor de IA mais recente da Nvidia está equipado com 72 de seus chips de última geração.
Os dados divulgados pela Nvidia focam principalmente em modelos de IA que utilizam a arquitetura Mixture-of-Experts (MoE), um método que otimiza o desempenho dos modelos de IA dividindo as tarefas em partes separadas e atribuindo-as a diferentes "especialistas" dentro do modelo para processamento.
A arquitetura MoE ganhou popularidade em 2025, especialmente depois que a DeepSeek, uma empresa chinesa de IA, apresentou um modelo de código aberto de alto desempenho que exigia menos tempo de treinamento em chips da Nvidia do que outros concorrentes.
Desde então, grandes empresas como a OpenAI (criadora do ChatGPT), a francesa Mistral e a chinesa Moonshot AI começaram a aplicar o método MoE em seus modelos. A Moonshot AI lançou, em julho passado, um modelo de código aberto muito elogiado que utiliza essa técnica.
Embora a Nvidia continue a manter uma vantagem na implementação de modelos de IA, rivais como a AMD também estão trabalhando arduamente para desenvolver produtos concorrentes.
A AMD deverá lançar um servidor de IA semelhante no próximo ano, integrando vários chips poderosos com o objetivo de competir diretamente com os servidores da Nvidia na área de inferência (processamento e implementação de modelos).
Fonte: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Comentário (0)