ໃນການສໍາພາດກັບ The Guardian , ຜູ້ຂຽນຫນັງສື "Sapiens: A Brief History of Humankind" ກ່າວວ່າ, ບໍ່ເຫມືອນກັບອາວຸດນິວເຄລຍ, ບັນຫາທີ່ຕົວແບບ AI ນໍາມາແມ່ນບໍ່ໄດ້ຈໍາກັດຢູ່ໃນສະຖານະການໃຫຍ່ຫນຶ່ງ.
ດ້ວຍ AI, ມີສະຖານະການອັນຕະລາຍນັບບໍ່ຖ້ວນ, ແຕ່ລະອັນມີທ່າແຮງທີ່ຈະສົມທົບແລະເປັນໄພຂົ່ມຂູ່ທີ່ມີຢູ່ຕໍ່ອາລະຍະທໍາຂອງມະນຸດ.
ຖະແຫຼງການຫຼາຍຝ່າຍໃນກອງປະຊຸມສຸດຍອດຄວາມປອດໄພ AI ທົ່ວໂລກທີ່ Bletchley Park, ປະເທດອັງກິດ, ແມ່ນ "ບາດກ້າວອັນສໍາຄັນຫຼາຍຕໍ່ຫນ້າ" ເພາະວ່າ ລັດຖະບານ ຊັ້ນນໍາໄດ້ຮ່ວມກັນສະແດງຄວາມກັງວົນກ່ຽວກັບເຕັກໂນໂລຢີແລະເຮັດບາງສິ່ງບາງຢ່າງກ່ຽວກັບມັນ, ທ່ານ Harari ກ່າວຄໍາເຫັນ.
ທ່ານກ່າວວ່າ "ຖ້າບໍ່ມີການຮ່ວມມືທົ່ວໂລກ, ມັນຈະເປັນການຍາກທີ່ສຸດ, ຖ້າເປັນໄປບໍ່ໄດ້, ທີ່ຈະບັນຈຸທ່າແຮງທີ່ເປັນອັນຕະລາຍທີ່ສຸດຂອງ AI," .
ກອງປະຊຸມໄດ້ສິ້ນສຸດລົງດ້ວຍຂໍ້ຕົກລົງລະຫວ່າງ 10 ລັດຖະບານແລະບໍລິສັດ AI ທີ່ສໍາຄັນ, ລວມທັງນັກພັດທະນາ ChatGPT OpenAI ແລະ Google, ເພື່ອຮ່ວມມືໃນການທົດສອບແບບຈໍາລອງ AI ຂັ້ນສູງກ່ອນແລະຫຼັງຈາກພວກມັນຖືກປ່ອຍອອກມາ.
ຜູ້ຂຽນ Sapiens ໂຕ້ຖຽງວ່າບັນຫາຫນຶ່ງໃນການທົດສອບຄວາມປອດໄພຂອງແບບຈໍາລອງແມ່ນຕ້ອງໄດ້ຄາດຄະເນບັນຫາທີ່ມັນອາດຈະເຮັດໃຫ້ເກີດ.
AI ແຕກຕ່າງຈາກທຸກໆເທັກໂນໂລຍີທີ່ຜ່ານມາໃນປະຫວັດສາດຂອງມະນຸດເພາະວ່າມັນເປັນເຕັກໂນໂລຢີທໍາອິດທີ່ສາມາດຕັດສິນໃຈ, ສ້າງແນວຄວາມຄິດໃຫມ່, ແລະຮຽນຮູ້ແລະພັດທະນາດ້ວຍຕົວມັນເອງ.
ຕາມຄໍານິຍາມຂອງມັນ, ມັນເປັນການຍາກທີ່ສຸດສໍາລັບມະນຸດ - ເຖິງແມ່ນວ່າ "ພໍ່" ຂອງ AI - ທີ່ຈະຄາດຄະເນອັນຕະລາຍແລະບັນຫາທີ່ອາດຈະເກີດຂຶ້ນທັງຫມົດ.
ລັດຖະບານໄດ້ຍົກສູງໄພຂົ່ມຂູ່ຂອງລະບົບ AI ເພື່ອຊ່ວຍສ້າງອາວຸດຊີວະພາບ, ແຕ່ຍັງມີສະຖານະການອື່ນໆທີ່ສາມາດພິຈາລະນາໄດ້.
ທ່ານ Harari ຊີ້ອອກວ່າ ດ້ານການເງິນເປັນຂົງເຂດທີ່ເໝາະສົມກັບລະບົບ AI ເພາະວ່າຂໍ້ມູນແລະ AI ພຽງແຕ່ສາມາດສ້າງວິກິດການທີ່ຮ້າຍແຮງໄດ້.
Harari ຖາມວ່າ "ຈະເຮັດແນວໃດຖ້າ AI ບໍ່ພຽງແຕ່ໄດ້ຮັບການຄວບຄຸມຫຼາຍກວ່າເກົ່າໃນລະບົບການເງິນຂອງ ໂລກ , ແຕ່ຍັງເລີ່ມຕົ້ນສ້າງອຸປະກອນທາງດ້ານການເງິນໃຫມ່ທີ່ມີພຽງແຕ່ AI ສາມາດເຂົ້າໃຈໄດ້ແລະມະນຸດບໍ່ສາມາດ," Harari ຖາມ.
ວິກິດການທາງດ້ານການເງິນ 2007-2008 ແມ່ນເກີດມາຈາກເຄື່ອງມືຫນີ້ສິນເຊັ່ນ: ພັນທະໜີ້ສິນຄ້ຳປະກັນ (CDOs) ທີ່ມີຄວາມເຂົ້າໃຈໜ້ອຍ ແລະສະນັ້ນຈຶ່ງບໍ່ມີລະບຽບພຽງພໍ, ນັກປະຫວັດສາດກ່າວຕື່ມວ່າ.
ທ່ານກ່າວວ່າ "AI ມີທ່າແຮງທີ່ຈະສ້າງອຸປະກອນທາງດ້ານການເງິນທີ່ສັບສົນກວ່າ CDOs. ພຽງແຕ່ຈິນຕະນາການສະຖານະການທີ່ພວກເຮົາມີລະບົບການເງິນທີ່ບໍ່ມີມະນຸດສາມາດເຂົ້າໃຈໄດ້ແລະດັ່ງນັ້ນຈຶ່ງບໍ່ສາມາດຄວບຄຸມໄດ້,". "ແລະຫຼັງຈາກນັ້ນມີວິກິດການທາງດ້ານການເງິນທີ່ບໍ່ມີໃຜເຂົ້າໃຈສິ່ງທີ່ກໍາລັງເກີດຂຶ້ນ."
ໃນເດືອນແລ້ວນີ້, ລັດຖະບານອັງກິດໄດ້ຍົກໃຫ້ເຫັນຄວາມກັງວົນກ່ຽວກັບຮູບແບບ AI ທີ່ກ້າວຫນ້າທີ່ສາມາດເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ທີ່ມີຢູ່ແລ້ວໂດຍການຄວບຄຸມແລະການຈັດການລະບົບການເງິນ.
ແຕ່ທ່ານ Harari ເຊື່ອວ່າວິກິດການທາງດ້ານການເງິນທີ່ສ້າງຂຶ້ນໂດຍ AI ຈະບໍ່ທໍາລາຍພົນລະເຮືອນຂອງມະນຸດ, "ຢ່າງຫນ້ອຍບໍ່ແມ່ນໂດຍກົງ".
ທ່ານກ່າວຕື່ມວ່າ "ມັນອາດ, ໂດຍທາງອ້ອມ, ຖ້າມັນເຮັດໃຫ້ເກີດສົງຄາມຫຼືຄວາມຂັດແຍ້ງບາງຢ່າງ, ມັນເປັນຄວາມສ່ຽງທີ່ຮ້າຍກາດ - ເສດຖະກິດ, ສັງຄົມ, ການເມືອງ ,".
ຜູ້ຂຽນ Israeli, ຜູ້ທີ່ສະຫນັບສະຫນູນການຮຽກຮ້ອງເພື່ອຢຸດການພັດທະນາຂອງ AI ກ້າວຫນ້າທາງດ້ານເປັນເວລາຫົກເດືອນແລະໃຫ້ບໍລິສັດ AI ຮັບຜິດຊອບຕໍ່ຄວາມເສຍຫາຍຂອງຜະລິດຕະພັນຂອງພວກເຂົາ, ກ່າວວ່າການສຸມໃສ່ການບໍ່ຄວນຢູ່ໃນກົດລະບຽບແລະກົດຫມາຍສະເພາະແຕ່ກ່ຽວກັບອົງການຈັດຕັ້ງທີ່ມີຄວາມຮູ້ທາງດ້ານເຕັກໂນໂລຢີທີ່ສາມາດຕອບສະຫນອງຢ່າງໄວວາໃນເວລາທີ່ຄວາມກ້າວຫນ້າໃຫມ່ເກີດຂື້ນ.
"ພວກເຮົາຈໍາເປັນຕ້ອງສ້າງສະຖາບັນກົດລະບຽບທີ່ເຂັ້ມແຂງໄວເທົ່າທີ່ຈະໄວໄດ້ທີ່ສາມາດກໍານົດແລະຕອບສະຫນອງຕໍ່ອັນຕະລາຍທີ່ເກີດຂື້ນ, ໂດຍອີງໃສ່ຄວາມເຂົ້າໃຈທີ່ພວກເຮົາບໍ່ສາມາດຄາດຄະເນອັນຕະລາຍແລະບັນຫາທັງຫມົດລ່ວງຫນ້າ."
ທ່ານກ່າວວ່າ "ນີ້ຄວນຈະເປັນຄວາມພະຍາຍາມຕົ້ນຕໍ, ບໍ່ໄດ້ຂຽນກົດລະບຽບທີ່ຍາວນານແລະສັບສົນຫຼາຍ, ເມື່ອເວລາຜ່ານກອງປະຊຸມສະພາອາດຈະລ້າສະໄຫມ,".
ທ່ານ Harari ກ່າວວ່າ, ສະຖາບັນຄົ້ນຄ້ວາຄວາມປອດໄພ AI ຄວນຈ້າງຜູ້ຊ່ຽວຊານທີ່ເຂົ້າໃຈຜົນກະທົບທີ່ອາດເກີດຂື້ນຂອງ AI ໃນໂລກການເງິນ, ທ່ານ Harari ກ່າວ.
ໃນເດືອນແລ້ວນີ້, ນາຍົກລັດຖະມົນຕີອັງກິດ Rishi Sunak ໄດ້ປະກາດການສ້າງສະຖາບັນຄວາມປອດໄພ AI ຂອງອັງກິດ. ມື້ຕໍ່ມາ, ທຳ ນຽບຂາວໄດ້ປະກາດແຜນການສ້າງຕັ້ງອົງການທີ່ຄ້າຍຄືກັນ. ທັງສອງຄາດວ່າຈະມີບົດບາດສໍາຄັນໃນການທົດສອບຕົວແບບ AI ຂັ້ນສູງ.
ກ່າວຄຳເຫັນທີ່ກອງປະຊຸມ, ທ່ານ Sunak ກ່າວວ່າ, ອັງກິດຕ້ອງເຂົ້າໃຈຄວາມສາມາດຂອງຕົວແບບ AI ແບບກ້າວໜ້າກ່ອນຈະນຳໃຊ້ກົດໝາຍເພື່ອຮັບມືກັບບັນດາຕົວແບບ.
(ຕາມ The Guardian)
ແອັບພລິເຄຊັນ AI, GraphCast ຄາດຄະເນການພະຍາກອນອາກາດ 10 ມື້ທີ່ຖືກຕ້ອງທີ່ສຸດໃນໂລກ
ຫ້ອງທົດລອງ DeepMind ຂອງ Google ໃນປະເທດອັງກິດໄດ້ພັດທະນາລະບົບ GraphCast, ແອັບພລິເຄຊັນປັນຍາປະດິດ (AI) ທີ່ສາມາດສະຫນອງການພະຍາກອນອາກາດ 10 ມື້ທີ່ຖືກຕ້ອງທີ່ສຸດໃນໂລກ.
ພະລັງງານລວມຂອງ AI ແລະຄອມພິວເຕີ້ຟັງ
ການປະສົມປະສານຂອງປັນຍາປະດິດ (AI) ແລະຄອມພິວເຕີ້ຟັງແມ່ນທ່າອ່ຽງທີ່ບໍ່ສາມາດຢຸດໄດ້ທີ່ກໍາລັງປ່ຽນແປງອຸດສາຫະກໍາທົ່ວໂລກ.
ທີ່ມາ






(0)