ອີງຕາມແຫຼ່ງ Tech.co , ໃນຂະນະທີ່ການຂັດແຍ້ງກ່ຽວກັບ CEO Sam Altman ຖືກໄລ່ອອກແລະຫຼັງຈາກນັ້ນກັບຄືນສູ່ OpenAI ກໍາລັງດໍາເນີນ, ມີຂ່າວລືກ່ຽວກັບຈົດຫມາຍສະບັບຫນຶ່ງທີ່ນັກຄົ້ນຄວ້າຂອງບໍລິສັດໄດ້ສົ່ງໄປຫາຄະນະກໍາມະການ, ສະແດງຄວາມກັງວົນກ່ຽວກັບຮູບແບບ AI superintelligence ທີ່ຖືກພັດທະນາທີ່ອາດຈະເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ຕໍ່ມະນຸດ.
(ຮູບປະກອບ)
ໂຄງການ Q*
ຮູບແບບດັ່ງກ່າວ, ທີ່ຮູ້ຈັກພາຍໃນເປັນໂຄງການ Q* (ອອກສຽງວ່າ Q-star), ໄດ້ຖືກກ່າວເຖິງວ່າເປັນຕົວແທນຂອງຄວາມບຸກທະລຸອັນໃຫຍ່ຫຼວງໃນການສະແຫວງຫາປັນຍາປະດິດຂອງ OpenAI (AGI) - ສາຂາທີ່ມີສະຕິປັນຍາສູງທີ່ເປັນເອກະລາດສູງທີ່ສາມາດຮຽນຮູ້ສະສົມ ແລະ ປະສິດທິພາບຫຼາຍກວ່າມະນຸດໃນວຽກງານສ່ວນໃຫຍ່.
Q* ສາມາດຊີ້ໃຫ້ເຫັນເຖິງການກ້າວກະໂດດອັນໃຫຍ່ຫຼວງໃນປັນຍາປະດິດໂດຍການປັບປຸງຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງ AI ຢ່າງຫຼວງຫຼາຍແລະເຮັດໃຫ້ OpenAI ໃກ້ຊິດກັບຄວາມກ້າວຫນ້າທີ່ສໍາຄັນໃນການພັດທະນາ AGI, ອີງຕາມຜູ້ທີ່ຄຸ້ນເຄີຍກັບເລື່ອງນີ້.
ບໍ່ເຫມືອນກັບແບບຈໍາລອງ AI ໃນປະຈຸບັນ, ເຊິ່ງສຸມໃສ່ຄວາມສາມາດໃນການສ້າງຄໍາຕອບໂດຍອີງໃສ່ຂໍ້ມູນທີ່ຮຽນຮູ້ກ່ອນຫນ້ານີ້, AGI ແມ່ນລະບົບອັດຕະໂນມັດທີ່ສາມາດນໍາໃຊ້ "ເຫດຜົນ" ໃນການຕັດສິນໃຈ, ເຮັດໃຫ້ມັນມີຄວາມສາມາດແກ້ໄຂບັນຫາລະດັບມະນຸດ.
ໃນຂະນະທີ່ AGI ຍັງບໍ່ທັນໄດ້ຮັບຮູ້ຢ່າງເຕັມສ່ວນ, ຜູ້ຊ່ຽວຊານຫຼາຍຄົນເຊື່ອວ່າເຕັກໂນໂລຢີຍັງມີຄວາມສາມາດທີ່ຈະຮຽນຮູ້ສະສົມ, ລັກສະນະອື່ນທີ່ເຮັດໃຫ້ມະນຸດສາມາດປັບປຸງຄວາມສາມາດຂອງເຂົາເຈົ້າໄດ້.
ບາງແຫຼ່ງອ້າງວ່າ Q* - ໂຄງການຂອງ OpenAI ສາມາດສະແດງຄຸນສົມບັດຂ້າງເທິງໃນເວລາທີ່ແກ້ໄຂບັນຫາ. ບໍ່ພຽງແຕ່ເທົ່ານັ້ນ, ຍ້ອນພະລັງງານຄອມພິວເຕີ້ອັນໃຫຍ່ຫຼວງຂອງຕົວແບບ, Q* ສາມາດປະຕິບັດໄດ້ດີກວ່ານັກຮຽນຊັ້ນປະຖົມ, ສະແດງໃຫ້ເຫັນທັກສະການຄິດເຫດຜົນແລະສະຕິປັນຍາທີ່ສໍາຄັນເມື່ອທຽບກັບຫນ້າທີ່ຂອງເຕັກໂນໂລຢີ AI ໃນປະຈຸບັນ.
ມັນບໍ່ຊັດເຈນວ່າ Q* ຢູ່ໃນການພັດທະນາດົນປານໃດແລະຄໍາຮ້ອງສະຫມັກຂອງມັນອາດຈະເປັນແນວໃດ, ແຕ່ OpenAI ໄດ້ແຈ້ງໃຫ້ພະນັກງານແລະສະມາຊິກຄະນະກໍາມະກ່ຽວກັບໂຄງການກ່ອນທີ່ເລື່ອງກະແຈກກະຈາຍຂອງບຸກຄະລາກອນຈະເກີດຂຶ້ນ.
ຄວາມກັງວົນດ້ານຈັນຍາບັນ
ໃນຂະນະທີ່ CEO Sam Altman ຂອງ OpenAI ຮູ້ສຶກຫມັ້ນໃຈວ່າເທກໂນໂລຍີ AGI ຈະຊຸກຍູ້ການປະດິດສ້າງ, ນັກຄົ້ນຄວ້າບາງຄົນໄດ້ໄວທີ່ຈະຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນຂອງໂຄງການ.
ໃນຈົດຫມາຍເຖິງຄະນະກໍາມະການ, ນັກຄົ້ນຄວ້າໄດ້ເຕືອນກ່ຽວກັບອັນຕະລາຍທີ່ອາດເກີດຂື້ນຂອງສູດການຄິດໄລ່ທີ່ມີປະສິດທິພາບນີ້ຕໍ່ມະນຸດ. ຄວາມກັງວົນກ່ຽວກັບຈັນຍາບັນສະເພາະກ່ຽວກັບ AI ທີ່ລະບຸໄວ້ໃນຈົດຫມາຍບໍ່ໄດ້ຖືກເປີດເຜີຍ, ແຕ່ຄໍາເຕືອນແມ່ນພຽງພໍທີ່ຈະເຮັດໃຫ້ການຕັດສິນໃຈຂອງຄະນະກໍາມະການທີ່ຈະຍິງ Altman.
ໃນຂະນະດຽວກັນ, ເຫດຜົນເບື້ອງຕົ້ນສໍາລັບການໄລ່ອອກ Altman ແມ່ນວ່າ CEO "ສື່ສານບໍ່ດີ." ທັນທີທີ່ລາວພົບເຫັນຕໍາແຫນ່ງໃຫມ່ໃນ Microsoft. ການກະ ທຳ ນີ້ໄດ້ກະຕຸ້ນໃຫ້ພະນັກງານ 770 ຂອງ OpenAI 700 ຄົນຂົ່ມຂູ່ທີ່ຈະເຮັດເຊັ່ນດຽວກັນຖ້າ CEO ບໍ່ຖືກແຕ່ງຕັ້ງຄືນ.
ດ້ວຍບໍລິສັດທີ່ຕົກຢູ່ໃນອັນຕະລາຍຂອງການລົ້ມລົງ, ຄະນະກໍາມະການຂອງ OpenAI ໄດ້ຖືກບັງຄັບໃຫ້ຟື້ນຟູ Altman ໄປສູ່ວຽກສູງສຸດ - ເຊິ່ງຍັງນໍາໄປສູ່ການປັບປຸງໃຫມ່ຂອງທີມງານບໍລິຫານຂອງບໍລິສັດແລະຊີ້ໃຫ້ເຫັນເຖິງການແບ່ງສ່ວນເລິກພາຍໃນການນໍາພາຂອງຕົນ.
ໃນປັດຈຸບັນ, ກັບ Altman ກັບຄືນໄປບ່ອນຢູ່ໃນຫ້ອງການແລະໂຄງການ Q* ອາດຈະໄດ້ຮັບແສງສະຫວ່າງສີຂຽວອີກເທື່ອຫນຶ່ງ, ນີ້ເຮັດໃຫ້ເກີດຄໍາຖາມໃຫມ່.
ໂຄງການ Q* ເປັນຈິງແນວໃດ?
ໃນຂະນະທີ່ມື້ທີ່ມີຄວາມວຸ້ນວາຍຢູ່ OpenAI ໄດ້ນໍາເອົາແນວຄວາມຄິດຂອງ AGI ເຂົ້າໄປໃນຈຸດເດັ່ນ, ນີ້ບໍ່ແມ່ນຄັ້ງທໍາອິດທີ່ Altman ໄດ້ກ່າວເຖິງເຕັກໂນໂລຢີ.
ຜູ້ປະກອບການ Silicon Valley ໄດ້ພົບເຫັນຕົວເອງໃນນ້ໍາຮ້ອນໃນເດືອນກັນຍາຫຼັງຈາກປຽບທຽບ AGI ກັບ "ມະນຸດສະເລ່ຍທີ່ເຈົ້າອາດຈະຈ້າງເປັນເພື່ອນຮ່ວມງານ." ລາວໄດ້ຕິດຕາມຄໍາເຫັນທີ່ລາວໄດ້ເຮັດໃນປີກາຍນີ້ກ່ຽວກັບວິທີການ AI ສາມາດ "ເຮັດທຸກຢ່າງທີ່ເຈົ້າເຮັດໄດ້ກັບເພື່ອນຮ່ວມງານທີ່ຢູ່ໄກ", ລວມທັງການຮຽນຮູ້ທີ່ຈະເປັນທ່ານຫມໍແລະນັກຂຽນໂປລແກລມທີ່ດີ.
ໃນຂະນະທີ່ການປຽບທຽບ AGI ກັບຄວາມສະຫຼາດຂອງ "ມະນຸດສະເລ່ຍ" ແມ່ນບໍ່ມີຫຍັງໃຫມ່, ການນໍາໃຊ້ຄໍາສັບຂອງ Altman ໄດ້ຖືກຖືວ່າ "ຫນ້າກຽດຊັງ" ໂດຍນັກຈັນຍາບັນ AI ແລະອາຈານ Henry Shevlin ມະຫາວິທະຍາໄລ Cambridge, ຍ້ອນວ່າຄວາມກັງວົນກ່ຽວກັບຜົນກະທົບຂອງ AI ກ່ຽວກັບຄວາມປອດໄພຂອງວຽກເພີ່ມຂຶ້ນ.
ການບຸກທະລຸທີ່ມີທ່າແຮງໃນ AGI ຍັງເປັນການປຸກລະຄັງເຕືອນສໍາລັບນັກຄົ້ນຄວ້າອື່ນໆ - ວ່າເຕັກໂນໂລຢີໄດ້ຖືກພັດທະນາໄວກວ່າທີ່ມະນຸດສາມາດເຂົ້າໃຈຜົນກະທົບຂອງມັນຢ່າງເຕັມສ່ວນ.
OpenAI ເຊື່ອວ່າຜົນໄດ້ຮັບໃນທາງບວກຂອງ AGI ເຮັດໃຫ້ "ການຂຸດຄົ້ນລະເບີດຝັງດິນ" ທີ່ມີຄວາມສ່ຽງທີ່ມີມູນຄ່າຕິດຕາມ. ແຕ່ຍ້ອນວ່າບໍລິສັດຍັງສືບຕໍ່ຊຸກຍູ້ໃນທິດທາງນີ້, ຫຼາຍຄົນກັງວົນວ່າ Altman ກໍາລັງຈັດລໍາດັບຄວາມສໍາຄັນຂອງຄວາມສໍາເລັດທາງການຄ້າຫຼາຍກວ່າຜົນປະໂຫຍດຂອງຜູ້ໃຊ້ແລະສັງຄົມ.
ເຟືອງແອງ (ທີ່ມາ: Tech.co, The Guardian)
ທີ່ມາ
(0)