Το νέο τσιπ, που ονομάζεται H200, θα ξεπεράσει το τρέχον κορυφαίο τσιπ της Nvidia, το H100. Η κύρια αναβάθμιση του νέου τσιπ έγκειται στη μνήμη υψηλότερου εύρους ζώνης, η οποία είναι ένα από τα πιο ακριβά μέρη του τσιπ και καθορίζει την ταχύτητα επεξεργασίας δεδομένων.
Το τσιπ H200 της Nvidia θα χειρίζεται μεγαλύτερα συστήματα τεχνητής νοημοσύνης.
Η Nvidia κατέχει επί του παρόντος το μονοπώλιο στην αγορά τσιπ τεχνητής νοημοσύνης και προμηθεύει τσιπ για την υπηρεσία ChatGPT της OpenAI και πολλές άλλες υπηρεσίες τεχνητής νοημοσύνης που παράγουν ανθρώπινες αποκρίσεις. Η προσθήκη μνήμης υψηλότερου εύρους ζώνης και ταχύτερης συνδεσιμότητας στα στοιχεία επεξεργασίας του τσιπ σημαίνει ότι υπηρεσίες όπως το ChatGPT μπορούν να ανταποκρίνονται πιο γρήγορα, σύμφωνα με το Reuters.
Το H200 διαθέτει 141 gigabytes (GB) μνήμης υψηλού εύρους ζώνης, αυξημένη από 80 GB στο προηγούμενο τσιπ H100. Η Nvidia δεν αποκάλυψε τον προμηθευτή μνήμης για το νέο τσιπ, αλλά η Micron Technology δήλωσε τον Σεπτέμβριο ότι εργάζεται για να γίνει προμηθευτής της Nvidia.
Η Nvidia αποκάλυψε περαιτέρω ότι οι διαδικτυακές υπηρεσίες των Amazon, Google Cloud, Microsoft Azure και Oracle Cloud Infrastructure θα είναι μεταξύ των πρώτων παρόχων cloud που θα χρησιμοποιήσουν το τσιπ H200, εκτός από τους επαγγελματικούς παρόχους cloud AI όπως οι CoreWeave, Lambda και Vultr.
Η Microsoft λανσάρει τσιπ τεχνητής νοημοσύνης.
[διαφήμιση_2]
Σύνδεσμος πηγής






Σχόλιο (0)