ຊິບໃໝ່, ເອີ້ນວ່າ H200, ຈະລື່ນກາຍຊິບເຮືອທຸງຂອງ Nvidia, H100. ການຍົກລະດັບຕົ້ນຕໍຂອງຊິບໃຫມ່ແມ່ນຫນ່ວຍຄວາມຈໍາແບນວິດທີ່ສູງຂຶ້ນ, ເຊິ່ງເປັນສ່ວນຫນຶ່ງທີ່ມີລາຄາແພງທີ່ສຸດຂອງຊິບແລະກໍານົດວ່າມັນສາມາດປະມວນຜົນຂໍ້ມູນໄດ້ໄວເທົ່າໃດ.
ຊິບ H200 ຂອງ Nvidia ຈະຈັດການລະບົບປັນຍາປະດິດທີ່ໃຫຍ່ກວ່າ
ໃນປັດຈຸບັນ Nvidia ມີການຜູກຂາດໃນຕະຫຼາດຊິບ AI, ການສະຫນອງຊິບໃຫ້ກັບບໍລິການ ChatGPT ຂອງ OpenAI ແລະການບໍລິການ AI ຈໍານວນຫນຶ່ງທີ່ເຮັດໃຫ້ເກີດການຕອບສະຫນອງຄືກັບມະນຸດ. ການເພີ່ມຄວາມຊົງຈຳແບນວິດທີ່ສູງຂຶ້ນ ແລະການເຊື່ອມຕໍ່ທີ່ໄວຂຶ້ນກັບອົງປະກອບປະມວນຜົນຂອງຊິບ ໝາຍຄວາມວ່າບໍລິການເຊັ່ນ ChatGPT ສາມາດຕອບສະໜອງໄດ້ໄວຂຶ້ນ, ອີງຕາມ Reuters.
H200 ມີ 141 gigabyte (GB) ຂອງຫນ່ວຍຄວາມຈໍາແບນວິດສູງ, ເພີ່ມຂຶ້ນຈາກ 80 GB ໃນຊິບ H100 ທີ່ຜ່ານມາ. Nvidia ບໍ່ໄດ້ເປີດເຜີຍຜູ້ສະຫນອງຫນ່ວຍຄວາມຈໍາສໍາລັບຊິບໃຫມ່, ແຕ່ Micron Technology ກ່າວໃນເດືອນກັນຍາວ່າມັນກໍາລັງເຮັດວຽກເພື່ອກາຍເປັນຜູ້ສະຫນອງ Nvidia.
Nvidia ເປີດເຜີຍຕື່ມອີກວ່າ Amazon Web Services, Google Cloud, Microsoft Azure, ແລະ Oracle Cloud Infrastructure ຈະເປັນຜູ້ໃຫ້ບໍລິການ cloud ທໍາອິດທີ່ຂຸດຄົ້ນຊິບ H200, ນອກຈາກຜູ້ໃຫ້ບໍລິການ AI cloud ມືອາຊີບເຊັ່ນ CoreWeave, Lambda, ແລະ Vultr.
Microsoft ເປີດຕົວຊິບ AI
ແຫຼ່ງທີ່ມາ






(0)