ອີງຕາມການ Android Authority , ເອກະສານການຄົ້ນຄວ້າຂອງ Apple ລາຍລະອຽດການແກ້ໄຂສໍາລັບການແລ່ນຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ໃນອຸປະກອນທີ່ມີ RAM ຈໍາກັດ. ເອກະສານເປີດເຜີຍວ່າບໍລິສັດສາມາດເກັບຮັກສາ "ຕົວກໍານົດການແບບຈໍາລອງ" ແລະໂຫລດບາງສ່ວນຂອງພວກເຂົາເຂົ້າໄປໃນ RAM ຂອງອຸປະກອນໃນເວລາທີ່ຈໍາເປັນ, ແທນທີ່ຈະໂຫລດແບບຈໍາລອງທັງຫມົດເຂົ້າໄປໃນ RAM.
Apple ກໍາລັງຊອກຫາການຊ່ວຍເຫຼືອ iPhone ເກົ່າທີ່ມີ RAM ຫນ້ອຍດໍາເນີນການ AI ທົ່ວໄປ
ເອກະສານອ້າງວ່າວິທີການນີ້ອະນຸຍາດໃຫ້ແລ່ນແບບທີ່ຕ້ອງການສອງເທົ່າຂອງ RAM ທີ່ iPhone ສາມາດມີໃນຂະນະທີ່ຍັງຮັບປະກັນຄວາມໄວ 4-5x ແລະ 20-25x ເມື່ອທຽບກັບວິທີການໂຫຼດງ່າຍໆໃນ CPU ແລະ GPU ຕາມລໍາດັບ.
ການນຳໃຊ້ AI ສັງເຄາະຢູ່ໃນອຸປະກອນທີ່ມີ RAM ຫຼາຍຈະເປັນຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ ເພາະວ່າມັນຈະຊ່ວຍໃຫ້ມີຄວາມໄວໃນການອ່ານ/ຂຽນໄດ້ໄວຂຶ້ນ. ຄວາມໄວແມ່ນສໍາຄັນສໍາລັບ AI ໃນອຸປະກອນ, ອະນຸຍາດໃຫ້ໃຊ້ເວລາ inference ໄວຂຶ້ນຫຼາຍເພາະວ່າຜູ້ໃຊ້ບໍ່ຈໍາເປັນຕ້ອງລໍຖ້າສິບວິນາທີ (ຫຼືຫຼາຍກວ່ານັ້ນ) ສໍາລັບຄໍາຕອບຫຼືຜົນໄດ້ຮັບສຸດທ້າຍ. ທັງ ໝົດ ນີ້ ໝາຍ ຄວາມວ່າຜູ້ຊ່ວຍ AI ໃນອຸປະກອນສາມາດແລ່ນດ້ວຍຄວາມໄວໃນການສົນທະນາ, ສ້າງຮູບພາບ / ຂໍ້ຄວາມໄວກວ່າ, ສະຫຼຸບບົດຄວາມໄວ, ແລະອື່ນໆ. ແຕ່ການແກ້ໄຂຂອງ Apple ຫມາຍຄວາມວ່າຜູ້ໃຊ້ບໍ່ຈໍາເປັນຕ້ອງມີ RAM ຫຼາຍເພື່ອເລັ່ງການຕອບສະຫນອງວຽກງານ AI ໃນອຸປະກອນ.
ວິທີການຂອງ Apple ສາມາດອະນຸຍາດໃຫ້ iPhone ເກົ່າແລະໃຫມ່ສະເຫນີຄຸນສົມບັດ AI ສັງເຄາະໃນອຸປະກອນຂອງເຂົາເຈົ້າ. ມັນເປັນສິ່ງສໍາຄັນເພາະວ່າ iPhones ຂອງ Apple ປົກກະຕິແລ້ວໃຫ້ RAM ຫນ້ອຍກວ່າໂທລະສັບ Android ລະດັບສູງ. ສໍາລັບຕົວຢ່າງ, ຊຸດ iPhone 11 ພຽງແຕ່ສະຫນອງ RAM 4GB, ໃນຂະນະທີ່ iPhone 15 ປົກກະຕິມີພຽງແຕ່ 6GB.
Apple ບໍ່ແມ່ນບໍລິສັດມືຖືດຽວທີ່ເຮັດວຽກກ່ຽວກັບການຫົດຕົວ LLM. ຊິບເຮືອທຸງຫຼ້າສຸດຂອງ Qualcomm ແລະ MediaTek ທັງສອງຮອງຮັບຄວາມແມ່ນຍໍາ INT4 ເພື່ອຫຼຸດຕົວແບບເຫຼົ່ານີ້. ໃນກໍລະນີໃດກໍ່ຕາມ, ບໍລິສັດກໍາລັງພະຍາຍາມຊອກຫາວິທີໃຫມ່ເພື່ອຫຼຸດຜ່ອນຄວາມຕ້ອງການຂອງລະບົບສໍາລັບ AI ໃນອຸປະກອນ, ອະນຸຍາດໃຫ້ແມ້ກະທັ້ງໂທລະສັບຕ່ໍາສຸດທີ່ຈະສະເຫນີຄຸນນະສົມບັດ.
ແຫຼ່ງທີ່ມາ






(0)