ໃນບໍ່ເທົ່າໃດປີທີ່ຜ່ານມາ, ChatGPT ໄດ້ລະເບີດຄວາມນິຍົມ, ມີຜູ້ໃຊ້ເກືອບ 200 ລ້ານຄົນເຂົ້າມາຫຼາຍກວ່າຫນຶ່ງຕື້ຄໍາຮ້ອງຂໍຕໍ່ມື້. ການຕອບສະ ໜອງ ທີ່ເບິ່ງຄືວ່າ "ອອກຈາກອາກາດບາງໆ" ຕົວຈິງແລ້ວໃຊ້ພະລັງງານຢ່າງຫຼວງຫຼາຍຢູ່ເບື້ອງຫຼັງ.
ໃນປີ 2023, ສູນຂໍ້ມູນ - ບ່ອນທີ່ AI ໄດ້ຮັບການຝຶກອົບຮົມແລະດໍາເນີນການ - ຈະກວມເອົາ 4.4% ຂອງການບໍລິໂພກໄຟຟ້າໃນສະຫະລັດ. ໃນທົ່ວໂລກ, ຕົວເລກດັ່ງກ່າວແມ່ນປະມານ 1.5% ຂອງຄວາມຕ້ອງການໄຟຟ້າທັງໝົດ. ໃນປີ 2030, ການບໍລິໂພກຄາດວ່າຈະເພີ່ມຂຶ້ນສອງເທົ່າເນື່ອງຈາກຄວາມຕ້ອງການ AI ຍັງສືບຕໍ່ເພີ່ມຂຶ້ນ.
"ພຽງແຕ່ສາມປີກ່ອນຫນ້ານີ້, ພວກເຮົາບໍ່ມີ ChatGPT," Alex de Vries-Gao, ນັກຄົ້ນຄວ້າກ່ຽວກັບຄວາມຍືນຍົງຂອງເຕັກໂນໂລຊີໃຫມ່ຂອງ Vrije Universiteit Amsterdam ແລະຜູ້ກໍ່ຕັ້ງຂອງ Digiconomist, ເວທີທີ່ວິເຄາະຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈຂອງແນວໂນ້ມດິຈິຕອນ. "ແລະໃນປັດຈຸບັນພວກເຮົາເວົ້າກ່ຽວກັບເຕັກໂນໂລຢີທີ່ສາມາດກວມເອົາເກືອບເຄິ່ງຫນຶ່ງຂອງໄຟຟ້າທີ່ໃຊ້ໂດຍສູນຂໍ້ມູນ ທົ່ວໂລກ ."
ການຖາມຄໍາຖາມກັບຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLM) ໃຊ້ພະລັງງານໄຟຟ້າປະມານ 10 ເທົ່າກ່ວາການຊອກຫາແບບປົກກະຕິຂອງ Google. (ພາບ: Qi Yang/Getty Images)
ສິ່ງທີ່ເຮັດໃຫ້ AI chatbots ຫິວຫຼາຍ? ຄໍາຕອບແມ່ນຢູ່ໃນຂະຫນາດຂອງເຂົາເຈົ້າ. ອີງຕາມອາຈານສອນ ວິທະຍາສາດ ຄອມພິວເຕີຂອງມະຫາວິທະຍາໄລ Michigan, Mosharraf Chowdhury, ມີສອງໄລຍະ "ຄວາມຫິວໂຫຍ" ໂດຍສະເພາະ: ການຝຶກອົບຮົມແລະການ inference.
"ຢ່າງໃດກໍ່ຕາມ, ບັນຫາແມ່ນວ່າຕົວແບບຂອງມື້ນີ້ມີຂະຫນາດໃຫຍ່ຫຼາຍທີ່ພວກເຂົາບໍ່ສາມາດດໍາເນີນການໃນ GPU ດຽວ, ປ່ອຍໃຫ້ເຫມາະສົມກັບເຄື່ອງແມ່ຂ່າຍດຽວ," ອາຈານ Mosharraf Chowdhury ອະທິບາຍໃຫ້ວິທະຍາສາດສົດ.
ເພື່ອໃຫ້ທ່ານມີຄວາມຄິດກ່ຽວກັບຂະຫນາດ, ການສຶກສາ 2023 ຂອງ de Vries-Gao ພົບວ່າເຄື່ອງແມ່ຂ່າຍຂອງ Nvidia DGX A100 ດຽວສາມາດບໍລິໂພກພະລັງງານໄດ້ເຖິງ 6.5 ກິໂລວັດ. ການຝຶກອົບຮົມ LLM ໂດຍປົກກະຕິຕ້ອງການເຄື່ອງແມ່ຂ່າຍຫຼາຍອັນ, ແຕ່ລະຄົນມີ GPU ສະເລ່ຍແປດ, ແລ່ນຢ່າງຕໍ່ເນື່ອງເປັນເວລາຫຼາຍອາທິດຫຼືແມ້ກະທັ້ງເດືອນ. ການຊົມໃຊ້ພະລັງງານທັງໝົດແມ່ນມະຫາສານ: ການຝຶກອົບຮົມ GPT-4 ຂອງ OpenAI ຄົນດຽວໃຊ້ພະລັງງານ 50 ກິກາວັດຊົ່ວໂມງ, ພຽງພໍທີ່ຈະໃຫ້ພະລັງງານທັງໝົດຂອງ San Francisco ເປັນເວລາສາມມື້.
ຂະບວນການຝຶກອົບຮົມ GPT-4 ຂອງ OpenAI ແມ່ນພຽງພໍທີ່ຈະພະລັງງານທັງຫມົດຂອງ San Francisco ສໍາລັບສາມມື້. (ຮູບພາບ: Jaap Arriens/NurPhoto/Rex/Shutterstock)
ໄລຍະ inference ແມ່ນຍັງໃຊ້ພະລັງງານຫຼາຍ. ນີ້ແມ່ນບ່ອນທີ່ AI chatbot ໃຊ້ສິ່ງທີ່ມັນໄດ້ຮຽນຮູ້ທີ່ຈະມາກັບຄໍາຕອບສໍາລັບຜູ້ໃຊ້. ເຖິງແມ່ນວ່າ inference ຕ້ອງການຊັບພະຍາກອນຄອມພິວເຕີຫນ້ອຍກ່ວາໄລຍະການຝຶກອົບຮົມ, ມັນຍັງມີຄວາມຫິວໂຫຍທີ່ສຸດເນື່ອງຈາກການຮ້ອງຂໍຈໍານວນຫລາຍທີ່ຖືກສົ່ງໄປຫາ chatbot.
ມາຮອດເດືອນກໍລະກົດປີ 2025, OpenAI ກ່າວວ່າຜູ້ໃຊ້ ChatGPT ກໍາລັງສົ່ງຫຼາຍກວ່າ 2.5 ຕື້ຄໍາຮ້ອງຂໍຕໍ່ມື້. ເພື່ອຕອບສະຫນອງທັນທີ, ລະບົບຕ້ອງລະດົມເຄື່ອງແມ່ຂ່າຍຫຼາຍອັນເພື່ອດໍາເນີນການພ້ອມໆກັນ. ແລະນັ້ນແມ່ນພຽງແຕ່ ChatGPT, ບໍ່ໄດ້ກ່າວເຖິງແພລະຕະຟອມທີ່ນິຍົມກັນຢ່າງກວ້າງຂວາງອື່ນໆ, ເຊັ່ນ Google's Gemini, ເຊິ່ງຄາດວ່າຈະກາຍເປັນທາງເລືອກເລີ່ມຕົ້ນໃນໄວໆນີ້ເມື່ອຜູ້ໃຊ້ເຂົ້າເຖິງ Google Search.
ທ່ານ Chowdhury ກ່າວວ່າ "ແມ້ແຕ່ຢູ່ໃນຂັ້ນຕອນການສະຫຼຸບ, ທ່ານບໍ່ສາມາດປະຫຍັດພະລັງງານໄດ້ແທ້ໆ." "ມັນບໍ່ແມ່ນກ່ຽວກັບຂະຫນາດຂໍ້ມູນອີກຕໍ່ໄປ. ຮູບແບບແມ່ນໃຫຍ່, ແຕ່ສິ່ງທີ່ໃຫຍ່ກວ່າແມ່ນຈໍານວນຜູ້ໃຊ້."
ນັກຄົ້ນຄວ້າເຊັ່ນ Chowdhury ແລະ de Vries-Gao ໃນປັດຈຸບັນກໍາລັງຊອກຫາວິທີທີ່ຈະວັດແທກການໃຊ້ພະລັງງານຢ່າງຖືກຕ້ອງແລະຊອກຫາວິທີທີ່ຈະຕັດມັນ. ຕົວຢ່າງ, Chowdhury ຮັກສາການຈັດອັນດັບທີ່ເອີ້ນວ່າ ML Energy Leaderboard, ເຊິ່ງຕິດຕາມການບໍລິໂພກພະລັງງານຂອງ inference ຈາກແບບເປີດແຫຼ່ງ.
ຢ່າງໃດກໍຕາມ, ຂໍ້ມູນສ່ວນໃຫຍ່ທີ່ກ່ຽວຂ້ອງກັບແພລະຕະຟອມ AI ການຜະລິດທາງການຄ້າຍັງຄົງເປັນ "ຄວາມລັບ". ບໍລິສັດຂະຫນາດໃຫຍ່ເຊັ່ນ Google, Microsoft ຫຼື Meta ອາດຈະຮັກສາຄວາມລັບຫຼືພຽງແຕ່ເຜີຍແຜ່ສະຖິຕິທີ່ບໍ່ຊັດເຈນຫຼາຍທີ່ບໍ່ສະທ້ອນເຖິງຜົນກະທົບດ້ານສິ່ງແວດລ້ອມທີ່ແທ້ຈິງ. ນີ້ເຮັດໃຫ້ມັນຍາກຫຼາຍທີ່ຈະກໍານົດວ່າ AI ບໍລິໂພກໄຟຟ້າຢ່າງແທ້ຈິງ, ຄວາມຕ້ອງການຈະເປັນແນວໃດໃນຊຸມປີຂ້າງຫນ້າ, ແລະວ່າໂລກສາມາດຕອບສະຫນອງມັນໄດ້.
ຢ່າງໃດກໍ່ຕາມ, ຜູ້ໃຊ້ແນ່ນອນວ່າສາມາດກົດດັນໃຫ້ມີຄວາມໂປ່ງໃສ, ເຊິ່ງບໍ່ພຽງແຕ່ຊ່ວຍໃຫ້ບຸກຄົນມີທາງເລືອກທີ່ມີຄວາມຮັບຜິດຊອບຫຼາຍຂຶ້ນເມື່ອໃຊ້ AI, ແຕ່ຍັງຊ່ວຍສົ່ງເສີມນະໂຍບາຍທີ່ຮັບຜິດຊອບທຸລະກິດ.
ນັກຄົ້ນຄວ້າ de Vries-Gao ກ່າວ ວ່າ "ຫນຶ່ງໃນບັນຫາຫຼັກຂອງຄໍາຮ້ອງສະຫມັກດິຈິຕອນແມ່ນວ່າຜົນກະທົບດ້ານສິ່ງແວດລ້ອມຂອງພວກເຂົາມັກຈະຖືກເຊື່ອງໄວ້," ນັກຄົ້ນຄວ້າ de Vries-Gao ກ່າວ. "ດຽວນີ້ບານແມ່ນຢູ່ໃນສານຂອງຜູ້ສ້າງນະໂຍບາຍ: ພວກເຂົາຕ້ອງຊຸກຍູ້ການເປີດເຜີຍຂໍ້ມູນເພື່ອໃຫ້ຜູ້ໃຊ້ສາມາດປະຕິບັດໄດ້."
ຫງອກຫງວຽນ (ວິທະຍາສາດສົດ)
ທີ່ມາ: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






(0)