ชิปใหม่นี้มีชื่อว่า H200 ซึ่งจะมีประสิทธิภาพเหนือกว่าชิปเรือธงรุ่นปัจจุบันของ Nvidia อย่าง H100 การอัปเกรดหลักของชิปใหม่นี้คือหน่วยความจำแบนด์วิดท์ที่สูงขึ้น ซึ่งเป็นหนึ่งในชิ้นส่วนที่มีราคาแพงที่สุดของชิป และเป็นตัวกำหนดความเร็วในการประมวลผลข้อมูล
ชิป H200 ของ Nvidia จะรองรับระบบปัญญาประดิษฐ์ขนาดใหญ่
ปัจจุบัน Nvidia ผูกขาดตลาดชิป AI โดยจัดหาชิปให้กับบริการ ChatGPT ของ OpenAI และบริการ AI อีกจำนวนหนึ่งที่สร้างการตอบสนองแบบมนุษย์ การเพิ่มหน่วยความจำแบนด์วิดท์สูงและการเชื่อมต่อที่รวดเร็วยิ่งขึ้นให้กับองค์ประกอบการประมวลผลของชิป หมายความว่าบริการต่างๆ เช่น ChatGPT สามารถตอบสนองได้รวดเร็วยิ่งขึ้น ตามรายงานของรอยเตอร์
H200 มีหน่วยความจำแบนด์วิดท์สูง 141 กิกะไบต์ (GB) เพิ่มขึ้นจาก 80GB ในชิป H100 รุ่นก่อนหน้า Nvidia ไม่ได้เปิดเผยชื่อซัพพลายเออร์หน่วยความจำสำหรับชิปใหม่นี้ แต่ Micron Technology ระบุในเดือนกันยายนว่ากำลังดำเนินการเพื่อเป็นซัพพลายเออร์ให้กับ Nvidia
Nvidia เปิดเผยเพิ่มเติมว่า Amazon Web Services, Google Cloud, Microsoft Azure และ Oracle Cloud Infrastructure จะเป็นผู้ให้บริการคลาวด์กลุ่มแรกที่จะใช้ประโยชน์จากชิป H200 นอกเหนือจากผู้ให้บริการคลาวด์ AI ระดับมืออาชีพ เช่น CoreWeave, Lambda และ Vultr
ไมโครซอฟท์เปิดตัวชิป AI
ลิงค์ที่มา
การแสดงความคิดเห็น (0)