Новый чип, получивший название H200, превзойдёт текущий флагманский чип Nvidia H100. Главным преимуществом нового чипа является более высокая пропускная способность памяти, которая является одним из самых дорогих компонентов чипа и определяет скорость обработки данных.
Чип Nvidia H200 будет работать с более крупными системами искусственного интеллекта
В настоящее время Nvidia занимает монопольное положение на рынке чипов для ИИ, поставляя чипы для сервиса OpenAI ChatGPT и ряда других сервисов ИИ, генерирующих ответы, подобные человеческим. По данным Reuters, добавление большего объёма высокоскоростной памяти и более быстрых соединений к вычислительным элементам чипа означает, что такие сервисы, как ChatGPT, смогут реагировать быстрее.
H200 оснащён 141 гигабайтом (ГБ) высокоскоростной памяти, тогда как в предыдущем чипе H100 этот показатель составлял 80 ГБ. Nvidia не раскрывает поставщика памяти для нового чипа, но Micron Technology заявила в сентябре, что работает над тем, чтобы стать поставщиком Nvidia.
Компания Nvidia также сообщила, что первыми поставщиками облачных услуг, которые будут использовать чип H200, станут Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, наряду с профессиональными поставщиками облачных услуг ИИ, такими как CoreWeave, Lambda и Vultr.
Microsoft выпускает чип с искусственным интеллектом
Ссылка на источник
Комментарий (0)