Новый чип, названный H200, превзойдет текущий флагманский чип Nvidia, H100. Главным улучшением нового чипа является более высокая пропускная способность памяти, которая является одной из самых дорогих частей чипа и определяет, насколько быстро он может обрабатывать данные.
Чип Nvidia H200 будет работать с более крупными системами искусственного интеллекта
В настоящее время Nvidia имеет монополию на рынке чипов ИИ, поставляя чипы для сервиса OpenAI ChatGPT и ряда сервисов ИИ, которые генерируют ответы, подобные человеческим. Добавление большего объема памяти с высокой пропускной способностью и более быстрых соединений к элементам обработки чипа означает, что такие сервисы, как ChatGPT, могут реагировать быстрее, сообщает Reuters.
H200 имеет 141 гигабайт (ГБ) памяти с высокой пропускной способностью, по сравнению с 80 ГБ в предыдущем чипе H100. Nvidia не раскрыла поставщика памяти для нового чипа, но Micron Technology заявила в сентябре, что работает над тем, чтобы стать поставщиком для Nvidia.
Nvidia также сообщила, что первыми поставщиками облачных услуг, которые будут использовать чип H200, станут Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, в дополнение к профессиональным поставщикам облачных услуг ИИ, таким как CoreWeave, Lambda и Vultr.
Microsoft выпускает чип с искусственным интеллектом
Ссылка на источник
Комментарий (0)