ເຖິງແມ່ນວ່າຜູ້ນໍາຊັ້ນນໍາໃນອຸດສາຫະກໍາເຕັກໂນໂລຢີກໍ່ມີຄວາມກັງວົນກ່ຽວກັບຄວາມສ່ຽງຂອງ AI ໃນອະນາຄົດ. ນີ້ແມ່ນບົດຄວາມຂອງ CEO Sundar Pichai ເອງກ່ຽວກັບເລື່ອງນີ້ໃນ Financial Times:
Sundar Pichai CEO ຂອງ Google. ພາບ: FT
ໃນປີນີ້, AI ໄດ້ຈັບຈິນຕະນາການຂອງ ໂລກ . ປະຊາຊົນຫຼາຍລ້ານຄົນໄດ້ໃຊ້ມັນແລ້ວເພື່ອເພີ່ມຄວາມຄິດສ້າງສັນ ແລະປັບປຸງຜະລິດຕະພັນ. ໃນຂະນະດຽວກັນ, ບໍລິສັດເລີ່ມທຸລະກິດ ແລະ ອົງກອນຕ່າງໆໄດ້ນຳເອົາຜະລິດຕະພັນ ແລະ ເທັກໂນໂລຍີທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຂົ້າມາສູ່ຕະຫຼາດໄວກວ່າແຕ່ກ່ອນ.
AI ແມ່ນເຕັກໂນໂລຢີທີ່ເລິກເຊິ່ງທີ່ສຸດທີ່ມະນຸດກໍາລັງເຮັດວຽກໃນມື້ນີ້; ມັນຈະສໍາຜັດກັບທຸກໆອຸດສາຫະກໍາແລະລັກສະນະຂອງຊີວິດ. ເມື່ອຄົນງານຫຼາຍຂຶ້ນເພື່ອກ້າວໄປສູ່ ວິທະຍາສາດ ຂອງ AI, ໂອກາດຫຼາຍຂຶ້ນຈະເປີດໃຫ້ຊຸມຊົນຢູ່ທົ່ວທຸກແຫ່ງ.
ໃນຂະນະທີ່ບາງຄົນໄດ້ພະຍາຍາມຮຽກຮ້ອງໃຫ້ rein ໃນການແຂ່ງຂັນ AI, ພວກເຮົາເຫັນວ່າມັນເຂັ້ມແຂງຂຶ້ນ. ຢ່າງໃດກໍ່ຕາມ, ມັນເປັນສິ່ງສໍາຄັນທີ່ເຊື້ອຊາດທີ່ຈະສ້າງ AI ມີຄວາມຮັບຜິດຊອບແລະພວກເຮົາ, ໃນຖານະທີ່ເປັນສັງຄົມ, ໄດ້ຮັບມັນຖືກຕ້ອງ.
ຢູ່ Google, ພວກເຮົາເຂົ້າຫາສິ່ງນີ້ໃນສາມທາງ. ທໍາອິດ, ໂດຍການສະແຫວງຫາການປະດິດສ້າງຢ່າງກ້າຫານທີ່ເຮັດໃຫ້ AI ມີປະໂຫຍດຫຼາຍສໍາລັບທຸກຄົນ. ພວກເຮົາສືບຕໍ່ໃຊ້ AI ເພື່ອປັບປຸງຜະລິດຕະພັນຂອງພວກເຮົາຢ່າງຫຼວງຫຼາຍ—ຈາກ Google Search ແລະ Gmail ໄປເປັນ Android ແລະ Maps.
ຄວາມກ້າວຫນ້າເຫຼົ່ານີ້ຫມາຍຄວາມວ່າຄົນຂັບລົດໃນທົ່ວເອີຣົບໃນປັດຈຸບັນສາມາດຊອກຫາເສັ້ນທາງທີ່ປະຫຍັດນໍ້າມັນຫຼາຍຂຶ້ນ; ຊາວອົບພະຍົບອູແກຣນຫຼາຍສິບພັນຄົນໄດ້ຮັບການຊ່ວຍເຫຼືອເພື່ອຊອກຫາເຮືອນຢູ່ໃໝ່; ເຄື່ອງມືການຄາດຄະເນໄພນ້ຳຖ້ວມສາມາດຄາດຄະເນໄພນ້ຳຖ້ວມກ່ອນໜ້ານີ້.
ການເຮັດວຽກຂອງ Google DeepMind ໃນ AlphaFold, ຮ່ວມມືກັບຫ້ອງທົດລອງຊີວະສາດໂມເລກຸນຂອງເອີຣົບ, ໄດ້ໃຫ້ຄວາມຮູ້ພື້ນຖານກ່ຽວກັບໂປຣຕີນທາງວິທະຍາສາດຫຼາຍກວ່າ 200 ລ້ານລາຍການ, ເປີດຄວາມເປັນໄປໄດ້ໃນການດູແລສຸຂະພາບໃຫມ່.
ຈຸດສຸມຂອງພວກເຮົາຍັງຢູ່ໃນການສະຫນັບສະຫນູນຜູ້ອື່ນນອກບໍລິສັດຂອງພວກເຮົາໃນການປະດິດສ້າງດ້ວຍ AI. ພວກເຮົາຕັ້ງກອງທຶນປະດິດສ້າງສັງຄົມ AI ເພື່ອຊ່ວຍໃຫ້ວິສາຫະກິດສັງຄົມຮັບມືກັບບາງສິ່ງທ້າທາຍອັນຮີບດ່ວນທີ່ສຸດຂອງເອີຣົບ.
ອັນທີສອງ, ພວກເຮົາຮັບປະກັນວ່າພວກເຮົາພັດທະນາແລະນໍາໃຊ້ເຕັກໂນໂລຢີຢ່າງມີຄວາມຮັບຜິດຊອບ, ສະແດງໃຫ້ເຫັນຄວາມມຸ່ງຫມັ້ນອັນເລິກເຊິ່ງຂອງພວກເຮົາທີ່ຈະໄດ້ຮັບຄວາມໄວ້ວາງໃຈຂອງຜູ້ໃຊ້ຂອງພວກເຮົາ. ນັ້ນແມ່ນເຫດຜົນທີ່ພວກເຮົາເຜີຍແຜ່ຫຼັກການ AI ຂອງພວກເຮົາໃນປີ 2018, ເຊິ່ງມີຮາກຖານມາຈາກຄວາມເຊື່ອທີ່ວ່າ AI ຄວນໄດ້ຮັບການພັດທະນາເພື່ອເປັນປະໂຫຍດຕໍ່ສັງຄົມໃນຂະນະທີ່ຫຼີກເວັ້ນຄໍາຮ້ອງສະຫມັກທີ່ເປັນອັນຕະລາຍ.
ພວກເຮົາມີຕົວຢ່າງຫຼາຍຢ່າງຂອງການນຳເອົາຫຼັກການເຫຼົ່ານັ້ນໄປປະຕິບັດ, ເຊັ່ນ: ການສ້າງການປົກປ້ອງເພື່ອຈຳກັດການໃຊ້ Universal Translator ຂອງພວກເຮົາໃນທາງທີ່ຜິດ, ບໍລິການຮ້ອງ ວິດີໂອ AI ທີ່ຊ່ວຍໃຫ້ຜູ້ຊ່ຽວຊານແປສຽງຂອງຜູ້ເວົ້າ ແລະກົງກັບການເຄື່ອນໄຫວປາກຂອງເຂົາເຈົ້າ.
ມັນມີທ່າແຮງອັນໃຫຍ່ຫຼວງທີ່ຈະເພີ່ມການຮຽນຮູ້ແຕ່ພວກເຮົາຮູ້ວ່າຄວາມສ່ຽງທີ່ມັນເກີດຂື້ນໃນມືທີ່ບໍ່ຖືກຕ້ອງແລະດັ່ງນັ້ນຈຶ່ງອະນຸຍາດໃຫ້ເຂົ້າເຖິງຄູ່ຮ່ວມງານທີ່ໄດ້ຮັບອະນຸຍາດເທົ່ານັ້ນ. ເມື່ອ AI ພັດທະນາ, ວິທີການຂອງພວກເຮົາກໍ່ຈະຄືກັນ.
ໃນທີ່ສຸດ, ການໃຊ້ທ່າແຮງຂອງ AI ບໍ່ແມ່ນສິ່ງທີ່ບໍລິສັດດຽວສາມາດເຮັດໄດ້. ໃນປີ 2020, ຂ້າພະເຈົ້າໄດ້ແບ່ງປັນທັດສະນະຂອງຂ້າພະເຈົ້າວ່າ AI ຕ້ອງໄດ້ຮັບການຄວບຄຸມໃນທາງທີ່ສົມດຸນນະວັດຕະກໍາແລະອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນ.
ການສ້າງກອບນະໂຍບາຍທີ່ຄາດການອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນ ແລະປົດປ່ອຍຜົນປະໂຫຍດຈະຕ້ອງມີການສົນທະນາກັນຢ່າງມີຄວາມຄິດລະຫວ່າງລັດຖະບານ, ຜູ້ຊ່ຽວຊານດ້ານອຸດສາຫະກໍາ, ຜູ້ເຜີຍແຜ່, ນັກວິຊາການ ແລະສັງຄົມພົນລະເຮືອນ.
ການລົງທຶນຢ່າງຕໍ່ເນື່ອງໃນການຄົ້ນຄວ້າແລະການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບຈະມີຄວາມສໍາຄັນ - ເຊັ່ນດຽວກັນກັບການຮັບປະກັນວ່າ AI ຖືກນໍາໃຊ້ຢ່າງປອດໄພ, ໂດຍສະເພາະຍ້ອນວ່າກົດລະບຽບຍັງສືບຕໍ່ພັດທະນາ. ການເພີ່ມທະວີການຮ່ວມມືສາກົນຈະເປັນທີ່ສໍາຄັນ.
AI ສະເຫນີໂອກາດຫນຶ່ງຄັ້ງຕໍ່ຮຸ່ນສໍາລັບໂລກເພື່ອບັນລຸເປົ້າຫມາຍສະພາບອາກາດຂອງຕົນ, ບັນລຸການເຕີບໂຕແບບຍືນຍົງ, ຮັກສາຄວາມສາມາດໃນການແຂ່ງຂັນທົ່ວໂລກ, ແລະອື່ນໆ. ຢ່າງໃດກໍ່ຕາມ, ພວກເຮົາຍັງຢູ່ໃນຍຸກທໍາອິດແລະມີວຽກຫຼາຍຂ້າງຫນ້າ.
ພວກເຮົາຫວັງວ່າຈະເຮັດວຽກນັ້ນກັບຄົນອື່ນ ແລະສ້າງ AI ຮ່ວມກັນຢ່າງປອດໄພ ແລະ ມີຄວາມຮັບຜິດຊອບເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ.
Huy Hoang ( ແປຈາກ FT )
ທີ່ມາ
(0)