SGGP
ຫລັງຈາກທີ່ຢູໂຣບໄດ້ເລີ່ມຮ່າງກົດໝາຍສະບັບທຳອິດ ຂອງໂລກ ກ່ຽວກັບປັນຍາປະດິດ (AI), 4 ບໍລິສັດຍັກໃຫຍ່ການຂຸດຄົ້ນອິນເຕີເນັດທາງອິນເຕີເນັດຂອງສະຫະລັດໄດ້ເປີດຕົວກຸ່ມທີ່ເອີ້ນວ່າ Frontier Model Forum.
ເປົ້າໝາຍຫຼັກຂອງກອງປະຊຸມ Frontier Model Forum ແມ່ນເພື່ອສົ່ງເສີມ AI ຢ່າງມີຄວາມຮັບຜິດຊອບ. ພາບ: THINKWITHNICHE |
ຝ່າຍຕ່າງໆເຂົ້າໃກ້ກັນຫຼາຍຂຶ້ນ
ກຸ່ມດັ່ງກ່າວ, ເຊິ່ງລວມມີ Anthropic, Google, Microsoft, ແລະ OpenAI, ເຈົ້າຂອງ ChatGPT, ກ່າວວ່າເປົ້າຫມາຍຫຼັກຂອງ Forum Frontier Model ແມ່ນເພື່ອຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ເກີດຈາກເວທີ AI ແລະພັດທະນາມາດຕະຖານອຸດສາຫະກໍາ. Forum Frontier Model ຈະສ້າງເວທີປາໄສໃຫມ່ໂດຍມີເປົ້າຫມາຍຕົ້ນຕໍດັ່ງຕໍ່ໄປນີ້: ສົ່ງເສີມການຄົ້ນຄວ້າຄວາມປອດໄພ AI ເພື່ອສະຫນັບສະຫນູນການພັດທະນາ, ຫຼຸດຜ່ອນຄວາມສ່ຽງ, ແລະມາດຕະຖານການປະເມີນຄວາມປອດໄພແລະລະດັບ; ກໍານົດການປະຕິບັດທີ່ດີທີ່ສຸດສໍາລັບການພັດທະນາຕົວແບບແລະການນໍາໃຊ້; ຊ່ວຍໃຫ້ປະຊາຊົນເຂົ້າໃຈລັກສະນະ, ຄວາມສາມາດ, ຂໍ້ຈໍາກັດ, ແລະຜົນກະທົບຂອງເຕັກໂນໂລຊີ; ແລະຮ່ວມມືກັບຜູ້ວາງນະໂຍບາຍ, ນັກວິຊາການ, ສັງຄົມພົນລະເຮືອນ, ແລະບໍລິສັດເພື່ອແບ່ງປັນຄວາມຮູ້ກ່ຽວກັບຄວາມສ່ຽງແລະຄວາມປອດໄພ.
ຍັກໃຫຍ່ເຕັກໂນໂລຢີໄດ້ຕໍ່ຕ້ານກົດລະບຽບທີ່ເພີ່ມຂຶ້ນ, ແຕ່ໃນເວລານີ້, ອຸດສາຫະກໍາເຕັກໂນໂລຢີໂດຍທົ່ວໄປໄດ້ປ່ຽນຈຸດຢືນຂອງຕົນກ່ຽວກັບຄວາມກັງວົນກ່ຽວກັບຄວາມສ່ຽງທີ່ AI ເພີ່ມຂຶ້ນ. ບັນດາບໍລິສັດທີ່ມີສ່ວນຮ່ວມໃນການລິເລີ່ມ Forum Frontier Model ໄດ້ໃຫ້ຄຳໝັ້ນສັນຍາທີ່ຈະແບ່ງປັນການປະຕິບັດທີ່ດີທີ່ສຸດໃນທົ່ວບໍລິສັດ, ແລະເຮັດໃຫ້ຂໍ້ມູນຂ່າວສານເປີດເຜີຍຕໍ່ ລັດຖະບານ ແລະສັງຄົມພົນລະເຮືອນ.
ໂດຍສະເພາະ, ເວທີ Frontier Model Forum ຈະເນັ້ນໃສ່ເວທີການຮຽນຮູ້ເຄື່ອງຈັກຂະໜາດໃຫຍ່, ແຕ່ຍັງມີຄວາມຕັ້ງໃຈທີ່ຈະເອົາ AI ໄປສູ່ລະດັບຄວາມຊັບຊ້ອນໃໝ່ – ເຊິ່ງຍັງເປັນປັດໄຈສ່ຽງທີ່ອາດເປັນໄປໄດ້. ນອກຈາກນັ້ນ, ເວທີປາໄສແບບຈໍາລອງ Frontier ຍັງຈະສະຫນັບສະຫນູນການພັດທະນາຄໍາຮ້ອງສະຫມັກທີ່ແກ້ໄຂສິ່ງທ້າທາຍທີ່ສໍາຄັນຂອງສັງຄົມເຊັ່ນ: ການຫຼຸດຜ່ອນແລະການປັບຕົວຂອງການປ່ຽນແປງດິນຟ້າອາກາດ, ການກວດຫາແລະປ້ອງກັນມະເຮັງໄວ, ແລະຕ້ານໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດ.
ຫ້ອງສໍາລັບການທໍາລາຍທີ່ເປັນໄປໄດ້
ການປະກາດຂອງກອງປະຊຸມ Frontier Model Forum ໂດຍບັນດາບໍລິສັດຂອງສະຫະລັດມີຂຶ້ນສອງສາມມື້ຫຼັງຈາກສະມາຊິກສະພາສູງສະຫະລັດໃນວັນທີ 25 ເດືອນກໍລະກົດໄດ້ເຕືອນກ່ຽວກັບຄວາມສ່ຽງຂອງ AI ທີ່ຖືກນໍາໃຊ້ສໍາລັບການໂຈມຕີທາງຊີວະພາບຢູ່ໃນການໄຕ່ສວນຕໍ່ຫນ້າອະນຸກໍາມະການຂອງຄະນະກໍາມະການຕຸລາການວຽງຈັນຝົນຂອງສະຫະລັດ. ບໍ່ດົນມານີ້, ເຈັດບໍລິສັດເຕັກໂນໂລຢີໃຫຍ່, ລວມທັງ OpenAI, Alphabet ແລະ Meta, ໄດ້ສະຫມັກໃຈໃຫ້ທໍານຽບຂາວເພື່ອພັດທະນາລະບົບການກໍານົດເນື້ອຫາທັງຫມົດຈາກຂໍ້ຄວາມ, ຮູບພາບ, ສຽງໄປຫາ ວິດີໂອ ທີ່ສ້າງໂດຍ AI ເພື່ອຮັບປະກັນຄວາມໂປ່ງໃສສໍາລັບຜູ້ໃຊ້, ເພື່ອຮັບປະກັນວ່າເຕັກໂນໂລຢີນີ້ປອດໄພກວ່າ.
Dario Amodei, CEO ຂອງ AI Anthropic, ໃຫ້ຂໍ້ສັງເກດວ່າ, ໃນຂະນະທີ່ AI ຍັງບໍ່ທັນມີຄວາມສາມາດສ້າງອາວຸດຊີວະພາບ, ມັນແມ່ນຄວາມສ່ຽງ "ໄລຍະກາງ" ແລະເປັນໄພຂົ່ມຂູ່ທີ່ຮ້າຍແຮງຕໍ່ຄວາມຫມັ້ນຄົງແຫ່ງຊາດຂອງສະຫະລັດໃນສອງຫຼືສາມປີຂ້າງຫນ້າ. ເຫດຜົນແມ່ນວ່າວິຊາທີ່ປະຕິບັດການໂຈມຕີດ້ວຍອາວຸດຊີວະພາບຂະຫນາດໃຫຍ່ແມ່ນບໍ່ຈໍາກັດພຽງແຕ່ຜູ້ທີ່ມີຄວາມຮູ້ພິເສດໃນເລື່ອງນີ້.
ໂລກກໍາລັງປະເຊີນກັບການລະເບີດຂອງເນື້ອຫາທີ່ສ້າງໂດຍເຕັກໂນໂລຢີ AI ທົ່ວໄປ. ຈາກສະຫະລັດ, ເອີລົບໄປອາຊີ, ການຄວບຄຸມແມ່ນຄ່ອຍໆເຄັ່ງຄັດ. ຕາມຂ່າວ CNN, ໃນເດືອນກັນຍາປີນີ້, ສະພາສູງອາເມລິກາຈະຈັດກອງປະຊຸມສຳມະນາຕື່ມອີກ 9 ຄັ້ງເພື່ອໃຫ້ບັນດາສະມາຊິກຮຽນຮູ້ວ່າ AI ສາມາດກະທົບຕໍ່ວຽກເຮັດງານທຳ, ຄວາມໝັ້ນຄົງແຫ່ງຊາດ ແລະ ຊັບສິນທາງປັນຍາ. ກ່ອນທີ່ອາເມລິກາບັນລຸໄດ້ຂໍ້ຕົກລົງ, ສະຫະພາບເອີລົບຈະມີກົດໝາຍສະບັບທຳອິດຂອງໂລກກ່ຽວກັບການຄຸ້ມຄອງ AI ໃນປີໜ້າ, ຄາດວ່າຈະມີຜົນສັກສິດແຕ່ປີ 2026.
ຜົນປະໂຫຍດທີ່ AI ເອົາມາໃຫ້ສັງຄົມແມ່ນບໍ່ສາມາດປະຕິເສດໄດ້, ແຕ່ວ່າມີການເຕືອນໄພເພີ່ມຂຶ້ນກ່ຽວກັບຄວາມສ່ຽງທີ່ອາດຈະເກີດຂື້ນຂອງເຕັກໂນໂລຢີໃຫມ່ນີ້. ໃນເດືອນ ມິຖຸນາ, ທ່ານເລຂາທິການໃຫຍ່ ສປຊ Antonio Guterres ໄດ້ສະໜັບສະໜູນຂໍ້ສະເໜີຈາກຜູ້ບໍລິຫານ AI ຫຼາຍທ່ານ ເພື່ອສ້າງຕັ້ງອົງການເຝົ້າລະວັງ AI ສາກົນ, ຄ້າຍຄືກັບອົງການພະລັງງານປະລະມານູສາກົນ (IAEA).
ກັບຄືນໄປບ່ອນຢູ່ໃນກອງປະຊຸມ Frontier Model Forum, ປະທານ Microsoft Brad Smith ກ່າວວ່າການລິເລີ່ມດັ່ງກ່າວເປັນບາດກ້າວທີ່ສໍາຄັນໃນການນໍາເອົາບໍລິສັດເຕັກໂນໂລຢີຮ່ວມກັນເພື່ອສົ່ງເສີມການນໍາໃຊ້ທີ່ມີຄວາມຮັບຜິດຊອບຂອງ AI ເພື່ອຜົນປະໂຫຍດຂອງມະນຸດທັງຫມົດ. ເຊັ່ນດຽວກັນ, ຮອງປະທານ OpenAI ຂອງອົງການ Global Affairs Anna Makanju ກ່າວວ່າ ເຕັກໂນໂລຊີ AI ຂັ້ນສູງມີທ່າແຮງທີ່ຈະນໍາເອົາຜົນປະໂຫຍດອັນເລິກເຊິ່ງມາສູ່ສັງຄົມ, ແລະອັນນີ້ຕ້ອງການການຄວບຄຸມ ແລະ ການປົກຄອງ.
ທີ່ມາ
(0)