ชิปรุ่นใหม่ที่เรียกว่า H200 จะมีประสิทธิภาพเหนือกว่าชิปรุ่นเรือธงปัจจุบันของ Nvidia อย่าง H100 การอัพเกรดหลักของชิปรุ่นใหม่นี้อยู่ที่หน่วยความจำที่มีแบนด์วิดท์สูงขึ้น ซึ่งเป็นหนึ่งในส่วนประกอบที่มีราคาแพงที่สุดของชิปและเป็นตัวกำหนดความเร็วในการประมวลผลข้อมูล
ชิป H200 ของ Nvidia จะรองรับระบบปัญญาประดิษฐ์ขนาดใหญ่ขึ้นได้
ปัจจุบัน Nvidia ครองตลาดชิป AI แต่เพียงผู้เดียว และเป็นผู้จัดหาชิปให้กับบริการ ChatGPT ของ OpenAI และบริการ AI อื่นๆ อีกมากมายที่สร้างการตอบสนองที่คล้ายมนุษย์ การเพิ่มหน่วยความจำที่มีแบนด์วิดท์สูงขึ้นและการเชื่อมต่อที่เร็วขึ้นให้กับองค์ประกอบการประมวลผลของชิป หมายความว่าบริการต่างๆ เช่น ChatGPT สามารถตอบสนองได้รวดเร็วยิ่งขึ้น ตามรายงานของ Reuters
ชิป H200 มีหน่วยความจำแบนด์วิดท์สูง 141 กิกะไบต์ (GB) เพิ่มขึ้นจาก 80 GB ในชิป H100 รุ่นก่อนหน้า Nvidia ไม่ได้เปิดเผยผู้ผลิตหน่วยความจำสำหรับชิปใหม่นี้ แต่ Micron Technology กล่าวในเดือนกันยายนว่ากำลังดำเนินการเพื่อเป็นผู้ผลิตหน่วยความจำให้กับ Nvidia
นอกจากนี้ Nvidia ยังเปิดเผยว่า Amazon, Google Cloud, Microsoft Azure และ Oracle Cloud Infrastructure จะเป็นหนึ่งในผู้ให้บริการคลาวด์กลุ่มแรกๆ ที่จะใช้ชิป H200 รวมถึงผู้ให้บริการคลาวด์ด้าน AI ระดับมืออาชีพ เช่น CoreWeave, Lambda และ Vultr ด้วย
ไมโครซอฟต์เปิดตัวชิป AI
[โฆษณา_2]
ลิงก์แหล่งที่มา






การแสดงความคิดเห็น (0)