El nuevo chip, llamado H200, superará al actual chip insignia de Nvidia, el H100. Su principal mejora es la memoria de mayor ancho de banda, uno de los componentes más costosos del chip y que determina la velocidad de procesamiento de datos.
El chip H200 de Nvidia gestionará sistemas de inteligencia artificial más grandes
Nvidia actualmente monopoliza el mercado de chips de IA, suministrando chips al servicio ChatGPT de OpenAI y a varios servicios de IA que generan respuestas similares a las humanas. Añadir más memoria de alto ancho de banda y conexiones más rápidas a los elementos de procesamiento del chip permite que servicios como ChatGPT respondan con mayor rapidez, según Reuters.
El H200 cuenta con 141 gigabytes (GB) de memoria de alto ancho de banda, en comparación con los 80 GB del chip H100 anterior. Nvidia no reveló el proveedor de memoria para el nuevo chip, pero Micron Technology declaró en septiembre que estaba trabajando para convertirse en proveedor de Nvidia.
Nvidia reveló además que Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán los primeros proveedores de servicios en la nube en explotar el chip H200, además de proveedores de servicios de inteligencia artificial en la nube profesionales como CoreWeave, Lambda y Vultr.
Microsoft lanza un chip de inteligencia artificial
[anuncio_2]
Enlace de origen
Kommentar (0)