Новий чіп під назвою H200 перевершить поточний флагманський чіп Nvidia, H100. Основне оновлення нового чіпа полягає в його пам'яті з вищою пропускною здатністю, яка є однією з найдорожчих частин чіпа та визначає швидкість обробки даних.
Чіп Nvidia H200 оброблятиме потужніші системи штучного інтелекту.
Наразі Nvidia монополізує ринок чіпів штучного інтелекту та постачає чіпи для сервісу ChatGPT від OpenAI та багатьох інших сервісів штучного інтелекту, які генерують реакції, подібні до людських. Додавання пам'яті з вищою пропускною здатністю та швидшого підключення до елементів обробки чіпа означає, що такі сервіси, як ChatGPT, можуть реагувати швидше, повідомляє Reuters.
H200 має 141 гігабайт (ГБ) високошвидкісної пам'яті, порівняно з 80 ГБ у попередньому чіпі H100. Nvidia не розкрила постачальника пам'яті для нового чіпа, але Micron Technology у вересні заявила, що працює над тим, щоб стати постачальником для Nvidia.
Nvidia також повідомила, що веб-сервіси Amazon, Google Cloud, Microsoft Azure та Oracle Cloud Infrastructure будуть серед перших хмарних постачальників, які використовуватимуть чіп H200, на додаток до професійних хмарних постачальників штучного інтелекту, таких як CoreWeave, Lambda та Vultr.
Microsoft запускає чіп штучного інтелекту.
Посилання на джерело






Коментар (0)