Το νέο τσιπ, που ονομάζεται H200, θα ξεπεράσει το τρέχον κορυφαίο τσιπ της Nvidia, το H100. Η κύρια αναβάθμιση του νέου τσιπ είναι η μνήμη υψηλότερου εύρους ζώνης, η οποία είναι ένα από τα πιο ακριβά μέρη του τσιπ και καθορίζει την ταχύτητα με την οποία μπορεί να επεξεργάζεται δεδομένα.
Το τσιπ H200 της Nvidia θα χειρίζεται μεγαλύτερα συστήματα τεχνητής νοημοσύνης
Η Nvidia κατέχει επί του παρόντος το μονοπώλιο στην αγορά τσιπ τεχνητής νοημοσύνης, προμηθεύοντας τσιπ στην υπηρεσία ChatGPT της OpenAI και σε μια σειρά από υπηρεσίες τεχνητής νοημοσύνης που παράγουν ανθρώπινες αποκρίσεις. Η προσθήκη περισσότερης μνήμης υψηλού εύρους ζώνης και ταχύτερων συνδέσεων στα στοιχεία επεξεργασίας του τσιπ σημαίνει ότι υπηρεσίες όπως το ChatGPT μπορούν να ανταποκρίνονται πιο γρήγορα, σύμφωνα με το Reuters.
Το H200 διαθέτει 141 gigabytes (GB) μνήμης υψηλού εύρους ζώνης, αυξημένη από 80GB στο προηγούμενο τσιπ H100. Η Nvidia δεν αποκάλυψε τον προμηθευτή μνήμης για το νέο τσιπ, αλλά η Micron Technology δήλωσε τον Σεπτέμβριο ότι εργάζεται για να γίνει προμηθευτής της Nvidia.
Η Nvidia αποκάλυψε επίσης ότι οι Amazon Web Services, Google Cloud, Microsoft Azure και Oracle Cloud Infrastructure θα είναι οι πρώτοι πάροχοι υπηρεσιών cloud που θα εκμεταλλευτούν το τσιπ H200, εκτός από τους επαγγελματικούς παρόχους υπηρεσιών cloud AI όπως οι CoreWeave, Lambda και Vultr.
Η Microsoft λανσάρει τσιπ τεχνητής νοημοσύνης
[διαφήμιση_2]
Σύνδεσμος πηγής
Σχόλιο (0)