ມັນເປັນຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLM) ພັດທະນາໂດຍນັກວິທະຍາສາດຈີນທີ່ສາມາດສັ່ງ drones ທະຫານ ເພື່ອໂຈມຕີລະບົບ radar ສັດຕູ.
ນັກວິທະຍາສາດ ໃນອຸດສາຫະກໍາປ້ອງກັນປະເທດຂອງຈີນໄດ້ພັດທະນາປະເພດຂອງ AI ທີ່ສາມາດເພີ່ມປະສິດທິພາບຂອງ drones ສົງຄາມເອເລັກໂຕຣນິກ, ອີງຕາມ SCMP.
ຮູບແບບພາສາຂະຫນາດໃຫຍ່ນີ້ (LLM), ຄ້າຍຄືກັນກັບ ChatGPT, ສາມາດສັ່ງ drones ທີ່ມີອາວຸດສົງຄາມເອເລັກໂຕຣນິກເພື່ອໂຈມຕີ radars ເຮືອບິນ enemy ຫຼືລະບົບການສື່ສານ.
ຜົນການທົດສອບສະແດງໃຫ້ເຫັນວ່າການປະຕິບັດການຕັດສິນໃຈຂອງຕົນໃນການຕໍ່ສູ້ທາງອາກາດບໍ່ພຽງແຕ່ປະຕິບັດໄດ້ດີກວ່າເຕັກນິກປັນຍາປະດິດ (AI) ແບບດັ້ງເດີມເຊັ່ນການຮຽນຮູ້ເສີມ, ແຕ່ຍັງດີກວ່າຜູ້ຊ່ຽວຊານທີ່ມີປະສົບການ.
ນີ້ແມ່ນການສຶກສາຄັ້ງທຳອິດທີ່ໄດ້ພິມເຜີຍແຜ່ຢ່າງກວ້າງຂວາງເພື່ອນຳໃຊ້ຕົວແບບພາສາຂະໜາດໃຫຍ່ໂດຍກົງກັບອາວຸດ.
ກ່ອນຫນ້ານີ້, ເຕັກໂນໂລຊີ AI ນີ້ໄດ້ຖືກຈໍາກັດເປັນສ່ວນໃຫຍ່ໃນຫ້ອງສົງຄາມ, ສະຫນອງການວິເຄາະທາງປັນຍາຫຼືການສະຫນັບສະຫນູນການຕັດສິນໃຈກັບຜູ້ບັນຊາການຂອງມະນຸດ.
ໂຄງການຄົ້ນຄວ້າດັ່ງກ່າວໄດ້ຮັບການຮ່ວມມືໂດຍສະຖາບັນການອອກແບບເຮືອບິນ Chengdu ຂອງບໍລິສັດອຸດສາຫະກຳການບິນຂອງຈີນ ແລະມະຫາວິທະຍາໄລໂພລີເຕັກນິກພາກເໜືອຂອງເມືອງ Xi'an, ແຂວງ Shaanxi.
ສະຖາບັນດັ່ງກ່າວແມ່ນຜູ້ອອກແບບຍົນສູ້ຮົບລະເບີດໜັກ J-20 ຂອງຈີນ.
ວຽກງານດັ່ງກ່າວ, ເຊິ່ງຍັງຢູ່ໃນຂັ້ນຕອນການທົດລອງ, ແມ່ນດີທີ່ສຸດໃນການເຂົ້າໃຈພາສາຂອງມະນຸດໃນບັນດາເຕັກໂນໂລຢີ AI ທີ່ມີຢູ່ແລ້ວ, ອີງຕາມເອກະສານທີ່ທີມງານໂຄງການໄດ້ຈັດພີມມາໃນວັນທີ 24 ເດືອນຕຸລາໃນວາລະສານ Detection & Control ທີ່ໄດ້ທົບທວນຄືນ.
ທີມງານໂຄງການໄດ້ສະຫນອງ LLM ດ້ວຍຊັບພະຍາກອນທີ່ຫລາກຫລາຍ, ລວມທັງ "ຊຸດຂອງປື້ມກ່ຽວກັບ radar, ສົງຄາມເອເລັກໂຕຣນິກ, ແລະການເກັບກໍາເອກະສານທີ່ກ່ຽວຂ້ອງ."
ເອກະສານອື່ນໆ, ລວມທັງບັນທຶກການສູ້ຮົບທາງອາກາດ, ບັນທຶກການຕິດຕັ້ງອາວຸດຍຸດທະພັນແລະຄູ່ມືການດໍາເນີນການສົງຄາມເອເລັກໂຕຣນິກ, ຍັງໄດ້ລວມເຂົ້າໃນຕົວແບບ.
ອີງຕາມນັກຄົ້ນຄວ້າ, ອຸປະກອນການຝຶກອົບຮົມສ່ວນໃຫຍ່ແມ່ນເປັນພາສາຈີນ.
ຜູ້ອອກແບບຍົນຮົບລັກລອບ J-20 ຂອງຈີນແມ່ນສ່ວນໜຶ່ງຂອງຄະນະຄົ້ນຄວ້າທີ່ກ່ຽວຂ້ອງກັບໂຄງການ AI. ພາບ: Weibo |
ໃນສົງຄາມເອເລັກໂຕຣນິກ, ຜູ້ໂຈມຕີຈະປ່ອຍຄື້ນແມ່ເຫຼັກໄຟຟ້າສະເພາະເພື່ອສະກັດກັ້ນສັນຍານ radar ທີ່ປ່ອຍອອກມາໂດຍເປົ້າຫມາຍ.
ໃນທາງກົງກັນຂ້າມ, ຜູ້ຖືກກ່າວຟ້ອງຈະພະຍາຍາມຫລີກລ້ຽງການໂຈມຕີເຫຼົ່ານີ້ໂດຍການປ່ຽນແປງສັນຍານຢ່າງຕໍ່ເນື່ອງ, ບັງຄັບໃຫ້ opponent ປັບຍຸດທະສາດຂອງຕົນໃນເວລາທີ່ແທ້ຈິງໂດຍອີງໃສ່ຂໍ້ມູນການເຝົ້າລະວັງ.
ກ່ອນຫນ້ານີ້, ມັນໄດ້ຖືກຄິດວ່າ LLMs ບໍ່ເຫມາະສົມສໍາລັບວຽກງານດັ່ງກ່າວເນື່ອງຈາກບໍ່ສາມາດຕີຄວາມຫມາຍຂໍ້ມູນທີ່ເກັບກໍາຈາກເຊັນເຊີ.
ປັນຍາປະດິດຍັງຕ້ອງການເວລາຄິດດົນກວ່າ, ບໍ່ບັນລຸຄວາມໄວປະຕິກິລິຢາລະດັບ millisecond – ຈໍາເປັນໃນສົງຄາມເອເລັກໂຕຣນິກ.
ເພື່ອຫຼີກເວັ້ນການທ້າທາຍເຫຼົ່ານີ້, ນັກວິທະຍາສາດໄດ້ outsourced ການປຸງແຕ່ງຂໍ້ມູນດິບໄປສູ່ຮູບແບບການຮຽນຮູ້ການເສີມທີ່ສັບສົນຫນ້ອຍ. ສູດການຄິດໄລ່ AI ແບບດັ້ງເດີມນີ້ດີເລີດໃນຄວາມເຂົ້າໃຈແລະການວິເຄາະຂໍ້ມູນຈໍານວນຫລາຍ.
"ຕົວກໍານົດການສັງເກດມູນຄ່າ vector" ທີ່ສະກັດຈາກຂະບວນການເບື້ອງຕົ້ນນີ້ຈະຖືກປ່ຽນເປັນພາສາຂອງມະນຸດໂດຍຜ່ານເຄື່ອງແປພາສາ. ຮູບແບບພາສາຂະຫນາດໃຫຍ່ຫຼັງຈາກນັ້ນໃຊ້ເວລາໃນໄລຍະ, ຂະບວນການແລະການວິເຄາະຂໍ້ມູນນີ້.
compiler ແປງການຕອບສະຫນອງຂອງຕົວແບບຂະຫນາດໃຫຍ່ເປັນຄໍາສັ່ງຜົນຜະລິດ, ເຊິ່ງໃນທີ່ສຸດຈະຄວບຄຸມ jammer ສົງຄາມເອເລັກໂຕຣນິກ.
ອີງຕາມນັກຄົ້ນຄວ້າ, ຜົນໄດ້ຮັບການທົດລອງໄດ້ຢືນຢັນຄວາມເປັນໄປໄດ້ຂອງເຕັກໂນໂລຢີ. ດ້ວຍການຊ່ວຍເຫຼືອຂອງຂັ້ນຕອນການຮຽນຮູ້ເສີມ, AI ທົ່ວໄປສາມາດປັບຍຸດທະສາດການໂຈມຕີໄດ້ໄວເຖິງ 10 ເທື່ອຕໍ່ວິນາທີ.
ເມື່ອປຽບທຽບກັບ AI ແລະຄວາມຊ່ຽວຊານຂອງມະນຸດແບບດັ້ງເດີມ, LLM ແມ່ນດີກວ່າໃນການສ້າງເປົ້າຫມາຍທີ່ບໍ່ຖືກຕ້ອງຈໍານວນຫລາຍໃນຫນ້າຈໍ radar ສັດຕູ. ຍຸດທະສາດນີ້ຖືວ່າມີຄຸນຄ່າຫຼາຍໃນດ້ານສົງຄາມອີເລັກໂທຣນິກກ່ວາພຽງແຕ່ສະກັດດ້ວຍສຽງລົບກວນ ຫຼື ບິດເບືອນຄື້ນ radar ຫ່າງຈາກເປົ້າໝາຍຕົວຈິງ.
ທີ່ມາ
(0)