ໂດຍອ້າງອີງຂໍ້ມູນຈາກ Boston Consulting Group, Barron's ກ່າວວ່າສູນຂໍ້ມູນຈະບໍລິໂພກ 7.5% ຂອງພະລັງງານໄຟຟ້າທັງຫມົດທີ່ມີຢູ່ໃນສະຫະລັດໃນປີ 2030. ສູນຂໍ້ມູນທີ່ສ້າງຂຶ້ນສໍາລັບລະບົບ AI ສາມາດບໍລິໂພກໄຟຟ້າຫຼາຍຮ້ອຍເມກາວັດຕໍ່ສະຖານທີ່, ດັ່ງນັ້ນລະບົບການສະຫນອງພະລັງງານຈະບໍ່ສາມາດຮັກສາການຂະຫຍາຍຕົວຢ່າງໄວວາຂອງຈໍານວນສູນຂໍ້ມູນ.
ພະລັງງານຂະຫນາດໃຫຍ່ຕ້ອງການພະລັງງານກັບເຄື່ອງແມ່ຂ່າຍ AI
ອີງຕາມການວິເຄາະ, ຈາກ 2022 ຫາ 2030, ການໃຊ້ພະລັງງານຂອງສູນຂໍ້ມູນໃນສະຫະລັດຈະເພີ່ມຂຶ້ນຈາກ 126 ເປັນ 390 terawatt ຊົ່ວໂມງ, ເຊິ່ງຈະພຽງພໍກັບ 40 ລ້ານຄົວເຮືອນຂອງສະຫະລັດ.
650 Group ຄາດຄະເນວ່າປະລິມານຂອງລະບົບເຊີບເວີທີ່ສະຫນອງຄວາມຕ້ອງການຂອງ AI ຈະເພີ່ມຂຶ້ນ 6 ເທົ່າຈາກປີທີ່ຜ່ານມາເຖິງ 2028, ເປັນ 6 ລ້ານຫນ່ວຍ. ອີງຕາມການຄາດຄະເນຂອງ Gartner, ການໃຊ້ພະລັງງານສະເລ່ຍຂອງເຄື່ອງແມ່ຂ່າຍເລັ່ງຈະເພີ່ມຂຶ້ນຈາກ 650W ເປັນ 1,000W.
ການບໍລິໂພກພະລັງງານຈະເພີ່ມຂຶ້ນບໍ່ພຽງແຕ່ຍ້ອນການເພີ່ມຂຶ້ນຂອງຈໍານວນເຄື່ອງແມ່ຂ່າຍ, ແຕ່ຍັງຍ້ອນເງື່ອນໄຂ. ຄວາມພະຍາຍາມເພື່ອເພີ່ມປະສິດທິພາບຄ່າໃຊ້ຈ່າຍພະລັງງານໂດຍການນໍາ AI ເຂົ້າໄປໃນພາກສະຫນາມຂອງການຄວບຄຸມການບໍລິໂພກພະລັງງານຈະຊ່ວຍຈໍາກັດແນວໂນ້ມນີ້, ແຕ່ຈະບໍ່ແກ້ໄຂບັນຫາຢ່າງສົມບູນ. ການຫັນປ່ຽນໄປສູ່ຄວາມເຢັນຂອງແຫຼວຂອງລະບົບເຊີບເວີຈະຫຼີກລ່ຽງບໍ່ໄດ້ໃນກໍລະນີຫຼາຍທີ່ສຸດ. ອີງຕາມການ Super Micro, ຄ່າໃຊ້ຈ່າຍໃນການດໍາເນີນງານຂອງສູນຂໍ້ມູນສາມາດຫຼຸດລົງຫຼາຍກ່ວາ 40% ໂດຍການກໍາຈັດລະບົບລະບາຍອາກາດແບບດັ້ງເດີມເພື່ອຄວາມເຢັນຂອງແຫຼວ.
ບັນຫາດັ່ງກ່າວມີຄວາມຮຸນແຮງຂຶ້ນຍ້ອນການພັດທະນາບໍ່ສະເໝີພາບຂອງຕາຂ່າຍໄຟຟ້າຂອງພາກພື້ນ. ນອກຈາກນັ້ນ, ບໍ່ແມ່ນທຸກສະຖານທີ່ສາມາດຂົນສົ່ງໄຟຟ້າທີ່ຜະລິດໄດ້ຢ່າງມີປະສິດທິພາບໄປຫາສະຖານທີ່ຂອງລະບົບການບໍລິໂພກພະລັງງານຂະຫນາດໃຫຍ່. ຜູ້ຊ່ຽວຊານກ່າວວ່າສະຫະລັດຜະລິດໄຟຟ້າພຽງພໍເພື່ອສະຫນັບສະຫນູນການພັດທະນາລະບົບ AI, ແຕ່ມີບັນຫາກັບຕາຂ່າຍໄຟຟ້າແຈກຢາຍ.
ແຫຼ່ງທີ່ມາ






(0)