បន្ទះឈីបថ្មីនេះ ដែលមានឈ្មោះថា H200 នឹងវ៉ាដាច់បន្ទះឈីបកំពូលបច្ចុប្បន្នរបស់ Nvidia គឺ H100។ ការធ្វើឱ្យប្រសើរឡើងដ៏សំខាន់នៃបន្ទះឈីបថ្មីនេះ ស្ថិតនៅក្នុងអង្គចងចាំកម្រិតបញ្ជូនទិន្នន័យខ្ពស់ជាងមុន ដែលជាផ្នែកមួយដែលមានតម្លៃថ្លៃបំផុតរបស់បន្ទះឈីប និងកំណត់ល្បឿនដំណើរការទិន្នន័យ។
បន្ទះឈីប H200 របស់ Nvidia នឹងគ្រប់គ្រងប្រព័ន្ធបញ្ញាសិប្បនិម្មិតធំៗ។
បច្ចុប្បន្ន Nvidia កាន់កាប់សិទ្ធិផ្តាច់មុខលើទីផ្សារបន្ទះឈីប AI និងផ្គត់ផ្គង់បន្ទះឈីបសម្រាប់សេវាកម្ម ChatGPT របស់ OpenAI និងសេវាកម្ម AI ជាច្រើនទៀតដែលបង្កើតការឆ្លើយតបដូចមនុស្ស។ ការបន្ថែមអង្គចងចាំកម្រិតបញ្ជូនខ្ពស់ និងការតភ្ជាប់លឿនជាងមុនទៅកាន់ធាតុដំណើរការរបស់បន្ទះឈីបមានន័យថាសេវាកម្មដូចជា ChatGPT អាចឆ្លើយតបបានលឿនជាងមុន នេះបើយោងតាម Reuters។
H200 មានអង្គចងចាំកម្រិតបញ្ជូនខ្ពស់ទំហំ 141 ជីហ្គាបៃ (GB) ដែលកើនឡើងពី 80 GB នៅក្នុងបន្ទះឈីប H100 មុន។ Nvidia មិនបានបង្ហាញអ្នកផ្គត់ផ្គង់អង្គចងចាំសម្រាប់បន្ទះឈីបថ្មីនោះទេ ប៉ុន្តែ Micron Technology បាននិយាយកាលពីខែកញ្ញាថា ខ្លួនកំពុងធ្វើការដើម្បីក្លាយជាអ្នកផ្គត់ផ្គង់សម្រាប់ Nvidia។
Nvidia បានបង្ហាញបន្ថែមទៀតថា សេវាកម្មគេហទំព័ររបស់ Amazon, Google Cloud, Microsoft Azure និង Oracle Cloud Infrastructure នឹងក្លាយជាអ្នកផ្តល់សេវា cloud ដំបូងគេដែលប្រើប្រាស់បន្ទះឈីប H200 បន្ថែមពីលើអ្នកផ្តល់សេវា cloud AI ដែលមានជំនាញវិជ្ជាជីវៈដូចជា CoreWeave, Lambda និង Vultr។
ក្រុមហ៊ុន Microsoft បានដាក់ឱ្យដំណើរការបន្ទះឈីប AI។
[ការផ្សាយពាណិជ្ជកម្ម_២]
តំណភ្ជាប់ប្រភព






Kommentar (0)