Den nye brikken, kalt H200, vil overgå Nvidias nåværende flaggskipbrikke, H100. Den nye brikkens viktigste oppgradering er minne med høyere båndbredde, som er en av de dyreste delene av brikken og bestemmer hvor raskt den kan behandle data.
Nvidias H200-brikke skal håndtere større kunstig intelligens-systemer
Nvidia har for tiden monopol på markedet for AI-brikker, og leverer brikker til OpenAIs ChatGPT-tjeneste og en rekke AI-tjenester som genererer menneskelignende responser. Ved å legge til minne med høyere båndbredde og raskere tilkoblinger til brikkens prosesseringselementer, kan tjenester som ChatGPT reagere raskere, ifølge Reuters.
H200 har 141 gigabyte (GB) minne med høy båndbredde, opp fra 80 GB i den forrige H100-brikken. Nvidia opplyste ikke hvem minneleverandøren er for den nye brikken, men Micron Technology sa i september at de jobbet med å bli en leverandør til Nvidia.
Nvidia avslørte videre at Amazon Web Services, Google Cloud, Microsoft Azure og Oracle Cloud Infrastructure vil være de første skytjenesteleverandørene som utnytter H200-brikken, i tillegg til profesjonelle AI-skytjenesteleverandører som CoreWeave, Lambda og Vultr.
Microsoft lanserer AI-brikke
[annonse_2]
Kildekobling
Kommentar (0)