השבב החדש, המכונה H200, יעלה על שבב הדגל הנוכחי של Nvidia, ה-H100. השדרוג העיקרי של השבב החדש הוא זיכרון בעל רוחב פס גבוה יותר, שהוא אחד החלקים היקרים ביותר של השבב וקובע את מהירות עיבוד הנתונים שלו.
שבב H200 של Nvidia יטפל במערכות בינה מלאכותית גדולות יותר
ל-Nvidia יש כיום מונופול על שוק שבבי הבינה המלאכותית, והיא מספקת שבבים לשירות ChatGPT של OpenAI ולמספר שירותי בינה מלאכותית המייצרים תגובות אנושיות. הוספת זיכרון ברוחב פס גבוה יותר וחיבורים מהירים יותר לרכיבי העיבוד של השבב מאפשרת לשירותים כמו ChatGPT להגיב מהר יותר, על פי רויטרס.
ל-H200 יש 141 ג'יגה-בייט (GB) של זיכרון ברוחב פס גבוה, לעומת 80GB בשבב ה-H100 הקודם. אנבידיה לא חשפה את ספק הזיכרון עבור השבב החדש, אך מיקרון טכנולוג'י מסרה בספטמבר שהיא פועלת להפוך לספקית של אנבידיה.
Nvidia חשפה עוד כי Amazon Web Services, Google Cloud, Microsoft Azure ו-Oracle Cloud Infrastructure יהיו ספקיות שירותי הענן הראשונות שישתמשו בשבב H200, בנוסף לספקיות שירותי ענן מקצועיות בתחום הבינה המלאכותית כמו CoreWeave, Lambda ו-Vultr.
מיקרוסופט משיקה שבב בינה מלאכותית
[מודעה_2]
קישור למקור
תגובה (0)