El nuevo chip, denominado H200, superará al actual chip insignia de Nvidia, el H100. La principal mejora del nuevo chip reside en su memoria de mayor ancho de banda, uno de los componentes más costosos del chip y que determina su velocidad de procesamiento de datos.
El chip H200 de Nvidia podrá manejar sistemas de inteligencia artificial más grandes.
Nvidia ostenta actualmente el monopolio del mercado de chips de IA, suministrando chips al servicio ChatGPT de OpenAI y a diversos servicios de IA que generan respuestas similares a las humanas. Según Reuters, la incorporación de memoria de mayor ancho de banda y conexiones más rápidas a los elementos de procesamiento del chip permite que servicios como ChatGPT respondan con mayor rapidez.
El H200 cuenta con 141 gigabytes (GB) de memoria de alto ancho de banda, frente a los 80 GB del chip H100 anterior. Nvidia no reveló el proveedor de memoria para el nuevo chip, pero Micron Technology anunció en septiembre que estaba trabajando para convertirse en proveedor de Nvidia.
Nvidia reveló además que Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán los primeros proveedores de servicios en la nube en aprovechar el chip H200, además de proveedores de servicios profesionales de IA en la nube como CoreWeave, Lambda y Vultr.
Microsoft lanza un chip de IA
Enlace de origen






Kommentar (0)