ຮູບປະກອບການໂທຫາການປິ່ນປົວ AI ເປັນອາວຸດຊີວະພາບ. (ທີ່ມາ: gizmodo.com) |
ໃນບົດ ຄວາມໃຫ້ AI ເປັນອາວຸດຊີວະພາບ, ບໍ່ແມ່ນອາວຸດນິວເຄລຍ ໂດຍ Emilia Javorsky, ນັກວິທະຍາສາດ -doctor ແລະຜູ້ອໍານວຍການຂອງ Future of Life Institute (USA), ຜູ້ຂຽນໄດ້ໂຕ້ຖຽງວ່າເຖິງວ່າຈະມີຄວາມຈິງທີ່ວ່າໂລກບໍ່ດົນມານີ້ໄດ້ປຽບທຽບ AI ກັບລະເບີດນິວເຄລຍຫຼາຍຄັ້ງ, ມັນມີວິທີການທີ່ເຫມາະສົມກວ່າ, ເຊິ່ງແມ່ນການກໍານົດເຕັກໂນໂລຢີປະເພດນີ້ເປັນອາວຸດຊີວະວິທະຍາ.
ອີງຕາມຜູ້ຂຽນ, AI ບາງທີອາດເປັນເຕັກໂນໂລຢີທີ່ມີປະສິດທິພາບທີ່ສຸດໃນປະຫວັດສາດຂອງມະນຸດທີ່ມະນຸດພັດທະນາໃນມື້ນີ້. ຜົນກະທົບທີ່ເປັນອັນຕະລາຍຂອງ AI, ລວມທັງການຈໍາແນກ, ໄພຂົ່ມຂູ່ຕໍ່ປະຊາທິປະໄຕແລະຄວາມເຂັ້ມຂົ້ນຂອງອິດທິພົນ, ໄດ້ຖືກບັນທຶກໄວ້ຢ່າງດີ.
ຢ່າງໃດກໍຕາມ, ບໍລິສັດ AI ຊັ້ນນໍາກໍາລັງແຂ່ງຂັນເພື່ອສ້າງລະບົບ AI ທີ່ມີປະສິດທິພາບເພີ່ມຂຶ້ນ, ເພີ່ມຄວາມສ່ຽງໃນອັດຕາທີ່ບໍ່ເຄີຍມີມາກ່ອນໃນປະຫວັດສາດຂອງມະນຸດ.
ໃນຂະນະທີ່ຜູ້ນໍາຕໍ່ສູ້ກັບວິທີການບັນຈຸແລະຄວບຄຸມການເພີ່ມຂຶ້ນຂອງ AI ແລະຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງຂອງມັນ, ພວກເຂົາຕ້ອງພິຈາລະນາກົດລະບຽບແລະມາດຕະຖານດຽວກັນທີ່ມະນຸດໄດ້ໃຊ້ເພື່ອສ້າງມັນໃນອະດີດ.
ການປັບຕົວແລະນະວັດຕະກໍາສາມາດຢູ່ຮ່ວມກັນໄດ້, ໂດຍສະເພາະໃນເວລາທີ່ຊີວິດຂອງມະນຸດຢູ່ໃນຄວາມສ່ຽງ.
ການເຕືອນໄພຈາກເຕັກໂນໂລຊີ nuclear
ເຖິງວ່າພະລັງງານນິວເຄລຍມີຄວາມປອດໄພກວ່ານ້ຳມັນຫຼາຍກວ່າ 600 ເທົ່າໃນດ້ານການເສຍຊີວິດ ແລະມີປະສິດທິພາບຢ່າງມະຫາສານ, ແຕ່ມີໜ້ອຍປະເທດທີ່ສຳຜັດກັບມັນຍ້ອນຜົນສະທ້ອນທີ່ເຂົາເຈົ້າໄດ້ເຫັນມາຈາກວິທີການທີ່ມີມາແຕ່ດົນນານໃນດ້ານນິວເຄລຍ.
ໂລກໄດ້ຮຽນຮູ້ກ່ຽວກັບເຕັກໂນໂລຊີນິວເຄລຍໃນຮູບແບບຂອງລະເບີດປະລໍາມະນູແລະລະເບີດໄຮໂດເຈນ. ດ້ວຍອາວຸດເຫຼົ່ານີ້, ເປັນຄັ້ງທຳອິດໃນປະຫວັດສາດ, ມະນຸດໄດ້ພັດທະນາເທັກໂນໂລຍີທີ່ສາມາດຢຸດຕິອາລະຍະທຳຂອງມະນຸດ, ເຊິ່ງເປັນຜະລິດຕະພັນຂອງການແຂ່ງຂັນອາວຸດທີ່ໃຫ້ຄວາມສຳຄັນດ້ານຄວາມໄວ ແລະ ນະວັດຕະກໍາຫຼາຍກວ່າຄວາມປອດໄພ ແລະ ການຄວບຄຸມ.
ຄວາມລົ້ມເຫລວຕໍ່ມາໃນການຄຸ້ມຄອງຄວາມປອດໄພທາງດ້ານວິຊາການແລະຄວາມສ່ຽງ, ຄວາມຮັບຜິດຊອບທີ່ມີຊື່ສຽງສໍາລັບໄພພິບັດນິວເຄລຍຢູ່ Chernobyl ແລະ Fukushima, ໄດ້ທໍາລາຍໂອກາດທີ່ປະຊາຊົນຍອມຮັບດ້ານບວກຂອງພະລັງງານນິວເຄຼຍ.
ເຖິງວ່າຈະມີການປະເມີນຄວາມສ່ຽງທີ່ເອື້ອອໍານວຍໂດຍລວມຂອງພະລັງງານນິວເຄລຍແລະທົດສະວັດຂອງນັກວິທະຍາສາດທີ່ເຮັດວຽກເພື່ອເຮັດໃຫ້ໂລກມີຄວາມເປັນໄປໄດ້ຂອງມັນ, ແນວຄວາມຄິດຂອງ 'ນິວເຄລຍ' ຍັງຄົງ ... tainted.
ເມື່ອເທັກໂນໂລຍີເຮັດໃຫ້ເກີດອັນຕະລາຍໃນໄລຍະຕົ້ນໆ, ຄວາມຮັບຮູ້ຂອງສັງຄົມ ແລະປະຕິກິລິຍາຫຼາຍເກີນໄປສາມາດຈຳກັດຜົນປະໂຫຍດທີ່ອາດເປັນໄປໄດ້ຂອງມັນຢ່າງຖາວອນ. ເນື່ອງຈາກຄວາມຜິດພາດໃນໄລຍະຕົ້ນຂອງພະລັງງານນິວເຄລຍ, ມະນຸດບໍ່ສາມາດໃຊ້ປະໂຫຍດຈາກແຫຼ່ງພະລັງງານທີ່ສະອາດ, ປອດໄພ, ແລະຄວາມເປັນກາງຂອງຄາບອນແລະຄວາມຫມັ້ນຄົງຂອງພະລັງງານຍັງຄົງເປັນຄວາມຝັນທໍ່ນັ້ນ.
ວິທີການທີ່ຖືກຕ້ອງກັບເຕັກໂນໂລຊີຊີວະພາບ
ແຕ່ໃນບາງພື້ນທີ່, ປະຊາຊົນໄດ້ຮັບມັນຖືກຕ້ອງ. ເຕັກໂນໂລຊີຊີວະພາບແມ່ນຫນຶ່ງໃນຂະແຫນງການດັ່ງກ່າວໄດ້ຮັບການຊຸກຍູ້ໃຫ້ພັດທະນາຢ່າງວ່ອງໄວໃນສະພາບການຂອງຄົນເຈັບຈໍານວນຫຼາຍທຸກທໍລະມານແລະຈໍານວນຫຼາຍເສຍຊີວິດໃນແຕ່ລະມື້ຈາກພະຍາດທີ່ບໍ່ມີການປິ່ນປົວ.
ຈັນຍາບັນຂອງການຄົ້ນຄວ້ານີ້ແມ່ນບໍ່ 'ເຄື່ອນທີ່ໄວແລະທໍາລາຍສິ່ງຕ່າງໆ', ແຕ່ເພື່ອປະດິດສ້າງໄວແລະປອດໄພເທົ່າທີ່ເປັນໄປໄດ້. ມະນຸດຈຳກັດຈັງຫວະຂອງນະວັດຕະກໍາໃນຂົງເຂດນີ້ໂດຍລະບົບລະບຽບ, ຈັນຍາບັນ ແລະມາດຕະຖານທີ່ປົກປ້ອງສະຫວັດດີການຂອງສັງຄົມ ແລະບຸກຄົນ, ແລະປົກປ້ອງອຸດສາຫະກໍາຈາກການເປັນອໍາມະພາດຍ້ອນຜົນຕອບແທນທີ່ອາດນໍາໄປສູ່ໄພພິບັດ.
ເມື່ອອາວຸດຊີວະພາບຖືກຫ້າມຢູ່ທີ່ສົນທິສັນຍາອາວຸດຊີວະພາບໃນສົງຄາມເຢັນ, ບັນດາປະເທດມະຫາອຳນາດທີ່ຄັດຄ້ານໄດ້ຕົກລົງວ່າການສ້າງອາວຸດດັ່ງກ່າວບໍ່ໄດ້ເປັນຜົນປະໂຫຍດຂອງໃຜ. ບັນດາຜູ້ນຳເຫັນວ່າ ເຕັກໂນໂລຊີທີ່ຍາກໃນການຄວບຄຸມ ແຕ່ມີຄວາມເຂົ້າເຖິງສູງບໍ່ຄວນຖືກເບິ່ງວ່າເປັນກົນໄກເພື່ອຊະນະການແຂ່ງຂັນອາວຸດ, ແຕ່ເປັນໄພຂົ່ມຂູ່ຕໍ່ມວນມະນຸດ.
Emilia Javorsky ແມ່ນຫນຶ່ງໃນບັນດານັກວິທະຍາສາດທີ່ບໍ່ດົນມານີ້ໄດ້ລົງນາມໃນຈົດຫມາຍເປີດເພື່ອສະຫນັບສະຫນູນການເລື່ອນເວລາຫົກເດືອນກ່ຽວກັບການພັດທະນາ AI. ນາງຍັງໄດ້ລົງນາມໃນຖະແຫຼງການເຕືອນວ່າ AI ສ້າງ "ຄວາມສ່ຽງຕໍ່ການສູນພັນ" ຕໍ່ມະນຸດ. |
ການຢຸດຊົ່ວຄາວໃນການແຂ່ງຂັນອາວຸດຊີວະພາບເຮັດໃຫ້ມະນຸດສາມາດພັດທະນາມັນໃນຈັງຫວະທີ່ຮັບຜິດຊອບ, ໂດຍນັກວິທະຍາສາດແລະຜູ້ຄວບຄຸມນໍາໃຊ້ມາດຕະຖານທີ່ເຂັ້ມງວດຕໍ່ກັບນະວັດກໍາໃຫມ່ທີ່ອາດຈະເປັນອັນຕະລາຍຕໍ່ມະນຸດ.
ການປັບປຸງເຫຼົ່ານີ້ບໍ່ໄດ້ມາໂດຍບໍ່ມີຄ່າໃຊ້ຈ່າຍ, ແຕ່ຍັງໄດ້ສ້າງຕັ້ງ ເສດຖະກິດຊີວະພາບ , ໂດຍມີການນໍາໃຊ້ຫຼາຍໃນຂົງເຂດຈາກພະລັງງານສະອາດກັບກະສິກໍາ.
ໃນລະຫວ່າງການແຜ່ລະບາດຂອງ Covid-19, ນັກຊີວະວິທະຍາໄດ້ ນຳ ໃຊ້ເຕັກໂນໂລຢີ mRNA ເພື່ອຜະລິດວັກຊີນທີ່ມີປະສິດຕິຜົນດ້ວຍຄວາມໄວທີ່ບໍ່ເຄີຍມີມາກ່ອນໃນປະຫວັດສາດຂອງມະນຸດ.
ການສໍາຫຼວດທີ່ຜ່ານມາຂອງນັກຄົ້ນຄວ້າ AI ພົບວ່າ 36% ຂອງຜູ້ຕອບຮູ້ສຶກວ່າ AI ສາມາດເຮັດໃຫ້ເກີດໄພພິບັດລະດັບນິວເຄຼຍ. ຢ່າງໃດກໍ່ຕາມ, ການຕອບສະຫນອງຂອງລັດຖະບານແລະກົດລະບຽບແມ່ນຊ້າ, ເຊິ່ງບໍ່ສອດຄ່ອງກັບຈັງຫວະການຮັບຮອງເອົາເຕັກໂນໂລຢີ, ດ້ວຍແອັບຯ ChatGPT ປະຈຸບັນມີຜູ້ໃຊ້ຫຼາຍກວ່າ 100 ລ້ານຄົນ.
ຄວາມສ່ຽງທີ່ເພີ່ມຂຶ້ນຢ່າງໄວວາຂອງ AI ໄດ້ກະຕຸ້ນໃຫ້ CEO 1,800 ຄົນ ແລະ ສາດສະດາຈານ 1,500 ຄົນໃນສະຫະລັດໄດ້ລົງນາມໃນຈົດໝາຍສະບັບໜຶ່ງທີ່ຮຽກຮ້ອງໃຫ້ຢຸດພັກເປັນເວລາ 6 ເດືອນໃນການພັດທະນາ AI ແລະຂະບວນການອັນຮີບດ່ວນຂອງລະບຽບການ ແລະ ການຫຼຸດຜ່ອນຄວາມສ່ຽງ. ການຢຸດຊົ່ວຄາວນີ້ຈະໃຫ້ເວລາແກ່ປະຊາຄົມໂລກເພື່ອຈຳກັດຄວາມເສຍຫາຍທີ່ເກີດຈາກ AI ແລະປ້ອງກັນຄວາມສ່ຽງຂອງໄພພິບັດທີ່ບໍ່ສາມາດປ່ຽນແປງໄດ້ສໍາລັບສັງຄົມຂອງພວກເຮົາ.
ໃນຂະນະທີ່ການປະເມີນຄວາມສ່ຽງແລະອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນຂອງ AI, ພວກເຮົາຍັງຕ້ອງພິຈາລະນາວິທີການຫຼີກເວັ້ນການສູນເສຍທ່າແຮງໃນທາງບວກຂອງເຕັກໂນໂລຢີນີ້. ຖ້າພວກເຮົາພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບໃນປັດຈຸບັນ, ພວກເຮົາຈະສາມາດເກັບກ່ຽວຜົນປະໂຫຍດອັນບໍ່ຫນ້າເຊື່ອຈາກເຕັກໂນໂລຢີນີ້. ຕົວຢ່າງ, ຜົນປະໂຫຍດຂອງການນໍາໃຊ້ AI ໃນການຄົ້ນພົບແລະການພັດທະນາຢາເສບຕິດ, ການປັບປຸງຄຸນນະພາບແລະຄ່າໃຊ້ຈ່າຍໃນການດູແລສຸຂະພາບ, ແລະເພີ່ມການເຂົ້າເຖິງແພດແລະການປິ່ນປົວທາງການແພດ.
DeepMind ຂອງ Google ໄດ້ສະແດງໃຫ້ເຫັນວ່າ AI ມີທ່າແຮງທີ່ຈະແກ້ໄຂບັນຫາພື້ນຖານໃນຊີວະສາດທີ່ມະນຸດໄດ້ຫລີກລ້ຽງມາດົນນານ. ອີງຕາມການສຶກສາ, AI ສາມາດເລັ່ງການບັນລຸເປົ້າຫມາຍການພັດທະນາແບບຍືນຍົງຂອງສະຫະປະຊາຊາດທັງຫມົດ, ການເຄື່ອນຍ້າຍມະນຸດໄປສູ່ອະນາຄົດຂອງການປັບປຸງສຸຂະພາບ, ຄວາມສະເຫມີພາບ, ຄວາມຈະເລີນຮຸ່ງເຮືອງແລະສັນຕິພາບ.
ມັນເຖິງເວລາແລ້ວທີ່ປະຊາຄົມໂລກຈະຮ່ວມກັນ, ດັ່ງທີ່ມັນໄດ້ເຮັດໃນ 50 ປີທີ່ຜ່ານມາໃນສົນທິສັນຍາອາວຸດຊີວະພາບ, ເພື່ອຮັບປະກັນວ່າການພັດທະນາ AI ມີຄວາມປອດໄພແລະຄວາມຮັບຜິດຊອບ. ຖ້າພວກເຮົາບໍ່ປະຕິບັດໃນໄວໆນີ້, ພວກເຮົາມີຄວາມສ່ຽງທີ່ຈະທໍາລາຍອະນາຄົດທີ່ສົດໃສຂອງ AI ແລະສັງຄົມໃນປະຈຸບັນຂອງພວກເຮົາ.
ທີ່ມາ
(0)