O novo chip, chamado H200, superará o atual chip topo de linha da Nvidia, o H100. A principal melhoria do novo chip é a memória de maior largura de banda, que é uma das partes mais caras do chip e determina a velocidade com que ele pode processar dados.
O chip H200 da Nvidia será capaz de lidar com sistemas de inteligência artificial de maior porte.
A Nvidia detém atualmente o monopólio do mercado de chips de IA, fornecendo chips para o serviço ChatGPT da OpenAI e para diversos outros serviços de IA que geram respostas semelhantes às humanas. Segundo a Reuters, a adição de memória com maior largura de banda e conexões mais rápidas aos elementos de processamento do chip permite que serviços como o ChatGPT respondam com maior rapidez.
O H200 possui 141 gigabytes (GB) de memória de alta largura de banda, um aumento em relação aos 80 GB do chip H100 anterior. A Nvidia não divulgou o fornecedor de memória para o novo chip, mas a Micron Technology afirmou em setembro que estava trabalhando para se tornar uma fornecedora da Nvidia.
A Nvidia revelou ainda que a Amazon Web Services, o Google Cloud, o Microsoft Azure e a Oracle Cloud Infrastructure serão os primeiros provedores de serviços em nuvem a explorar o chip H200, além de provedores de serviços de IA em nuvem profissionais, como CoreWeave, Lambda e Vultr.
Microsoft lança chip de IA
Link da fonte






Comentário (0)