ຈົດໝາຍຈຸດປ່ຽນ
Reuters ໃນວັນທີ 23 ພະຈິກນີ້ ໄດ້ອ້າງເຖິງແຫຼ່ງຂ່າວສະເພາະທີ່ກ່າວວ່າ 4 ມື້ກ່ອນການປົດຕຳແໜ່ງ CEO Sam Altman, ນັກຄົ້ນຄວ້າບາງຄົນຂອງ OpenAI ໄດ້ສົ່ງຈົດໝາຍເຖິງຄະນະອຳນວຍການຂອງບໍລິສັດ ເຕືອນເຖິງການຄົ້ນພົບປັນຍາປະດິດ (AI) ທີ່ມີພະລັງທີ່ສາມາດຂົ່ມຂູ່ມະນຸດໄດ້. ຈົດຫມາຍດັ່ງກ່າວບໍ່ເຄີຍຖືກກ່າວເຖິງມາກ່ອນແລະລະບົບ AI ທີ່ໄດ້ກ່າວມາຂ້າງເທິງແມ່ນການພັດທະນາທີ່ສໍາຄັນ ກ່ອນທີ່ ທ່ານ Sam Altman, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ OpenAI ຈະຖືກໄລ່ອອກໃນວັນທີ 17 ພະຈິກ. ລາວກັບຄືນສູ່ຕໍາແຫນ່ງນີ້ໃນວັນທີ 21 ພະຈິກ (ເວລາສະຫະລັດ) ຫຼັງຈາກການເຈລະຈາສອງຄັ້ງກັບ OpenAI. ອີງຕາມແຫຼ່ງຂໍ້ມູນ, ຈົດຫມາຍສະບັບດັ່ງກ່າວເປັນປັດໃຈຫນຶ່ງໃນບັນຊີລາຍຊື່ຂອງເຫດຜົນທີ່ນໍາໄປສູ່ການຕັດສິນໃຈປົດຕໍາແຫນ່ງຄະນະກໍາມະການບໍລິຫານຂອງ OpenAI, ເຖິງແມ່ນວ່າໃນການປະກາດຢ່າງເປັນທາງການ, ບໍລິສັດພຽງແຕ່ເວົ້າວ່າທ່ານ Altman "ບໍ່ສອດຄ່ອງແລະກົງໄປກົງມາໃນການສື່ສານກັບຄະນະກໍາມະການ".
ທ່ານ Altman ( ຂວາ ) ແລະຜູ້ນຳບັນດາບໍລິສັດເຕັກໂນໂລຢີໄດ້ປຶກສາຫາລືຢູ່ກອງປະຊຸມ APEC ຢູ່ San Francisco (ອາເມລິກາ) ໃນວັນທີ 16 ພະຈິກ.
ຫນຶ່ງໃນຜູ້ຈັດການອາວຸໂສຂອງ OpenAI, Mira Murati, ໄດ້ກ່າວເຖິງໂຄງການທີ່ເອີ້ນວ່າ Q* ກັບພະນັກງານໃນວັນທີ 22 ພະຈິກແລະກ່າວວ່າຄະນະກໍາມະການຂອງບໍລິສັດໄດ້ຮັບຈົດຫມາຍກ່ອນທີ່ຈະປົດທ່ານ Altman, ອີງຕາມແຫຼ່ງຂໍ້ມູນ. ຫນຶ່ງໃນແຫຼ່ງຂໍ້ມູນໄດ້ເປີດເຜີຍວ່າ OpenAI ໄດ້ມີຄວາມຄືບຫນ້າກ່ຽວກັບ Q*, ເຊິ່ງອາດຈະເປັນຄວາມກ້າວຫນ້າໃນການຄົ້ນຫາ superintelligence, ຊຶ່ງເອີ້ນກັນວ່າປັນຍາທົ່ວໄປປອມ (AGI).
ເຖິງແມ່ນວ່າຕົວແບບພຽງແຕ່ເຮັດຄະນິດສາດໃນລະດັບໂຮງຮຽນປະຖົມ, ການແກ້ໄຂບັນຫາດັ່ງກ່າວເຮັດໃຫ້ນັກຄົ້ນຄວ້າມີຄວາມຫວັງໃນແງ່ດີກ່ຽວກັບຄວາມສໍາເລັດໃນອະນາຄົດຂອງ Q*. ນັກຄົ້ນຄວ້າເຫັນວ່າຄະນິດສາດເປັນເງື່ອນໄຂເບື້ອງຕົ້ນສໍາລັບການພັດທະນາ AI ການຜະລິດ. AI Generative ໃນປັດຈຸບັນສາມາດຂຽນແລະແປພາສາ, ເຖິງແມ່ນວ່າຄໍາຕອບຂອງຄໍາຖາມດຽວກັນສາມາດແຕກຕ່າງກັນຫຼາຍ. ແຕ່ການຮຽນຮູ້ຄະນິດສາດ, ບ່ອນທີ່ມີຄໍາຕອບທີ່ຖືກຕ້ອງພຽງແຕ່ຫນຶ່ງ, ຫມາຍຄວາມວ່າ AI ຈະສາມາດຫາເຫດຜົນໄດ້ດີກວ່າ, ຄືກັບມະນຸດ. ນັກຄົ້ນຄວ້າເຊື່ອວ່ານີ້ສາມາດຖືກນໍາໃຊ້ກັບການຄົ້ນຄວ້າ ວິທະຍາສາດ ໃຫມ່.
Sam Altman ກັບຄືນມາເປັນ CEO ຂອງ OpenAI
ອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນ?
ໃນຈົດຫມາຍເຖິງຄະນະກໍາມະການ OpenAI, ນັກຄົ້ນຄວ້າໄດ້ອະທິບາຍເຖິງພະລັງງານແລະອັນຕະລາຍຂອງ AI, ອີງຕາມແຫຼ່ງຂໍ້ມູນ. ນັກວິທະຍາສາດຄອມພິວເຕີໄດ້ສົນທະນາກັນມາດົນນານແລ້ວເຖິງອັນຕະລາຍທີ່ເກີດຈາກເຄື່ອງຈັກອັດສະລິຍະ, ເຊັ່ນວ່າພວກເຂົາອາດຈະຕັດສິນໃຈທຳລາຍມະນຸດເພື່ອຜົນປະໂຫຍດຂອງຕົນເອງ. ໃນສະພາບການນັ້ນ, ທ່ານ Altman ໄດ້ນໍາພາຄວາມພະຍາຍາມທີ່ຈະປ່ຽນ ChatGPT ເປັນຫນຶ່ງໃນຄໍາຮ້ອງສະຫມັກຊອບແວທີ່ເຕີບໂຕໄວທີ່ສຸດໃນປະຫວັດສາດແລະດຶງດູດການລົງທຶນແລະຊັບພະຍາກອນຄອມພິວເຕີ້ທີ່ຈໍາເປັນເພື່ອໃຫ້ໄດ້ໃກ້ຊິດກັບ AGI. ນອກເຫນືອຈາກການປະກາດຊຸດເຄື່ອງມືໃຫມ່ໃນເຫດການໃນເດືອນນີ້, ທ່ານ Altman ບອກຜູ້ນໍາ ໂລກ ໃນ San Francisco ໃນອາທິດທີ່ຜ່ານມາວ່າລາວເຊື່ອວ່າ AGI ສາມາດບັນລຸໄດ້. ມື້ຕໍ່ມາ, ລາວໄດ້ຖືກໄລ່ອອກໂດຍຄະນະກໍາມະການ OpenAI. OpenAI ແລະທ່ານ Altman ບໍ່ໄດ້ຕອບສະຫນອງທັນທີຕໍ່ການຮ້ອງຂໍໃຫ້ມີຄໍາເຫັນກ່ຽວກັບຈົດຫມາຍ.
ກັງວົນກ່ຽວກັບຄວາມສ່ຽງທີ່ອາດຈະເກີດຂື້ນໂດຍ AI, ລັດຖະບານ ຕາເວັນຕົກຈໍານວນຫຼາຍແລະບໍລິສັດເຕັກໂນໂລຢີໄດ້ຕົກລົງກ່ຽວກັບກົນໄກການທົດສອບຄວາມປອດໄພໃຫມ່. ເຖິງຢ່າງໃດກໍ່ຕາມ, ອີງຕາມ AFP, ເລຂາທິການໃຫຍ່ສະຫະປະຊາຊາດທ່ານ Antonio Guterres ກ່າວວ່າໂລກຍັງ "ຫຼີ້ນການຈັບມື" ໃນຄວາມພະຍາຍາມທີ່ຈະຄວບຄຸມ AI, ເຊິ່ງມີຄວາມສ່ຽງທີ່ຈະມີຜົນສະທ້ອນທາງລົບໃນໄລຍະຍາວສໍາລັບທຸກສິ່ງທຸກຢ່າງຈາກວຽກຈົນເຖິງວັດທະນະທໍາ.
OpenAI, Microsoft ຟ້ອງຮ້ອງລິຂະສິດ
The Hill ລາຍງານໃນວັນທີ 23 ພະຈິກທີ່ຜ່ານມາວ່າກຸ່ມນັກຂຽນທີ່ບໍ່ແມ່ນເລື່ອງຕະຫຼົກໄດ້ຍື່ນຟ້ອງ, ກ່າວຫາສອງບໍລິສັດ, OpenAI ແລະ Microsoft, ຝຶກອົບຮົມເຄື່ອງມື ChatGPT ເພື່ອຄັດລອກວຽກຂອງພວກເຂົາໂດຍບໍ່ໄດ້ຮັບຄວາມຍິນຍອມຂອງພວກເຂົາ. ໃນຄໍາຮ້ອງຟ້ອງທີ່ຍື່ນຕໍ່ສານລັດຖະບານກາງໃນນິວຢອກ (ສະຫະລັດ), ໂຈດຕົ້ນຕໍ, ທ່ານ Julian Sancton, ກ່າວວ່າລາວແລະນັກຂຽນອື່ນໆບໍ່ໄດ້ຮັບຄ່າຕອບແທນໃດໆສໍາລັບວຽກງານທີ່ຄັດລອກໂດຍ AI, ໃນຂະນະທີ່ OpenAI ແລະ Microsoft ປະສົບຜົນສໍາເລັດທາງດ້ານການເງິນຈາກການໂຄສະນາການເຮັດວຽກຂອງພວກເຂົາ, ມີລາຍໄດ້ຫຼາຍຕື້ໂດລາຈາກຜະລິດຕະພັນ AI. ອີງຕາມການ Reuters, ໂຄສົກຂອງ OpenAI ໄດ້ປະຕິເສດທີ່ຈະໃຫ້ຄໍາຄິດຄໍາເຫັນກ່ຽວກັບການຟ້ອງຮ້ອງ, ໃນຂະນະທີ່ຜູ້ຕາງຫນ້າຂອງ Microsoft ບໍ່ໄດ້ຕອບສະຫນອງຕໍ່ຄໍາຮ້ອງຂໍຄໍາເຫັນ.
ແຫຼ່ງທີ່ມາ
(0)