Vietnam.vn - Nền tảng quảng bá Việt Nam

ທຸລະກິດທີ່ໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບຈະໄດ້ຮັບປະໂຫຍດທາງການຄ້າ

ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາໄລ New South Wales, ອົດສະຕາລີໄດ້ແບ່ງປັນກ່ຽວກັບຄວາມຮັບຜິດຊອບແລະຈັນຍາບັນຂອງການນໍາໃຊ້ AI ຢູ່ຂ້າງນອກຂອງລາຍການສົນທະນາ "AI ສໍາລັບມະນຸດ: AI ຈັນຍາບັນແລະຄວາມປອດໄພໃນຍຸກໃຫມ່."

VietnamPlusVietnamPlus03/12/2025

ໃນ​ຂອບ​ເຂດ​ສັບປະດາ​ວິ​ທະ​ຍາ​ສາດ ​ແລະ ​ເຕັກ​ໂນ​ໂລ​ຊີ VinFuture 2025 ​ໄດ້​ເຕົ້າ​ໂຮມ​ບັນດາ​ນັກວິທະຍາສາດ, ນັກ​ການ​ເມືອງ ​ແລະ ນັກ​ປະດິດ​ສ້າງ ​ເພື່ອ​ປຶກສາ​ຫາລື​ກ່ຽວ​ກັບ​ການ​ພັດທະນາ AI ຢ່າງ​ມີ​ຄວາມ​ຮັບຜິດຊອບ, ມຸ່ງ​ໄປ​ເຖິງ​ຄຸນຄ່າ​ດ້ານ​ມະນຸດສະທຳ.

ຢູ່ຂ້າງນອກຂອງການສົນທະນາ, ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາໄລ New South Wales (ອົດສະຕາລີ), ນັກວິຊາການຂອງສະມາຄົມອາເມລິກາສໍາລັບເຄື່ອງຈັກຄອມພິວເຕີ້ໄດ້ແບ່ງປັນກ່ຽວກັບຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບຂອງການນໍາໃຊ້ AI.

ການນໍາໃຊ້ທີ່ຮັບຜິດຊອບຂອງ AI ຄວນເປັນຂໍ້ບັງຄັບ

- ອີງຕາມສາດສະດາຈານ, ການນໍາໃຊ້ຄວາມຮັບຜິດຊອບຂອງ AI ຄວນມີຄວາມສະຫມັກໃຈຫຼືບັງຄັບ? ແລະພວກເຮົາຄວນປະພຶດຕົວແນວໃດຕໍ່ AI?

ສາດສະດາຈານ Toby Walsh: ຂ້າພະເຈົ້າເຊື່ອຢ່າງຫນັກແຫນ້ນວ່າການນໍາໃຊ້ AI ທີ່ມີຄວາມຮັບຜິດຊອບຄວນຈະເປັນຂໍ້ບັງຄັບ. ໃນປັດຈຸບັນມີແຮງຈູງໃຈທີ່ຜິດຫວັງ, ດ້ວຍເງິນຈໍານວນຫຼວງຫຼາຍທີ່ເຮັດກັບ AI, ແລະວິທີດຽວທີ່ຈະຮັບປະກັນການປະພຶດທີ່ດີແມ່ນຕ້ອງມີກົດລະບຽບທີ່ເຂັ້ມງວດ, ດັ່ງນັ້ນຜົນປະໂຫຍດສາທາລະນະສະເຫມີມີຄວາມສົມດູນກັບຜົນປະໂຫຍດທາງການຄ້າ.

- ທ່ານສາມາດໃຫ້ຕົວຢ່າງສະເພາະຈາກປະເທດທີ່ແຕກຕ່າງກັນຂອງຄໍາຮ້ອງສະຫມັກ AI ທີ່ມີຄວາມຮັບຜິດຊອບແລະຈັນຍາບັນ?

ສາດສະດາຈານ Toby Walsh: ຕົວຢ່າງຄລາສສິກແມ່ນການຕັດສິນໃຈທີ່ມີສະເຕກສູງ, ເຊັ່ນການຕັດສິນລົງໂທດແລະການລົງໂທດໃນສະຫະລັດ, ບ່ອນທີ່ລະບົບ AI ຖືກນໍາໃຊ້ເພື່ອແນະນໍາກ່ຽວກັບການຈໍາຄຸກຂອງບຸກຄົນແລະຄວາມເປັນໄປໄດ້ຂອງການກະທໍາຜິດຄືນໃຫມ່.

ແຕ່ຫນ້າເສຍດາຍ, ລະບົບນີ້ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນປະຫວັດສາດແລະບໍ່ຕັ້ງໃຈສະທ້ອນໃຫ້ເຫັນຄວາມລໍາອຽງທາງເຊື້ອຊາດທີ່ຜ່ານມາເຊິ່ງນໍາໄປສູ່ການຈໍາແນກຕໍ່ຄົນຜິວດໍາ. ພວກ​ເຮົາ​ບໍ່​ຄວນ​ປ່ອຍ​ໃຫ້​ລະ​ບົບ​ດັ່ງ​ກ່າວ​ຕັດ​ສິນ​ໃຈ​ຜູ້​ທີ່​ໄດ້​ຮັບ​ການ​ຈໍາ​ຄຸກ​.

- ເມື່ອ AI ເຮັດຜິດ, ໃຜຮັບຜິດຊອບ? ໂດຍສະເພາະກັບຕົວແທນ AI, ພວກເຮົາມີຄວາມສາມາດໃນການແກ້ໄຂກົນໄກການດໍາເນີນງານຂອງພວກເຂົາບໍ?

ສາດສະດາຈານ Toby Walsh: ບັນຫາຫຼັກເມື່ອ AI ເຮັດຜິດພາດແມ່ນພວກເຮົາບໍ່ສາມາດຮັບຜິດຊອບ AI ໄດ້. AI ບໍ່ແມ່ນມະນຸດ ແລະນີ້ແມ່ນຂໍ້ບົກພ່ອງໃນທຸກລະບົບກົດໝາຍໃນ ໂລກ . ມະນຸດເທົ່ານັ້ນທີ່ຮັບຜິດຊອບຕໍ່ການຕັດສິນໃຈ ແລະການກະທໍາຂອງເຂົາເຈົ້າ.

ທັນໃດນັ້ນ, ພວກເຮົາມີ "ຕົວແທນ" ໃຫມ່ທີ່ເອີ້ນວ່າ AI, ເຊິ່ງສາມາດ - ຖ້າພວກເຮົາອະນຸຍາດໃຫ້ມັນ - ຕັດສິນໃຈແລະດໍາເນີນການໃນໂລກຂອງພວກເຮົາ, ເຊິ່ງກໍ່ໃຫ້ເກີດສິ່ງທ້າທາຍ: ໃຜພວກເຮົາຈະຮັບຜິດຊອບ?

ຄໍາຕອບແມ່ນໃຫ້ບໍລິສັດທີ່ນໍາໃຊ້ແລະປະຕິບັດລະບົບ AI ຮັບຜິດຊອບຕໍ່ຜົນສະທ້ອນ "ເຄື່ອງຈັກ" ເຫຼົ່ານີ້.

vnp-toby-walsh-4.jpg

ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາໄລ New South Wales ໄດ້ແບ່ງປັນໃນກອງປະຊຸມສໍາມະນາ “AI ສໍາລັບມະນຸດ: ຈັນຍາບັນ AI ແລະຄວາມປອດໄພໃນຍຸກໃໝ່” ໃນຂອບເຂດສັບປະດາ ວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ VinFuture 2025. (ພາບ: Minh Son/Vietnam+)

- ຫຼາຍບໍລິສັດຍັງເວົ້າກ່ຽວກັບ AI ທີ່ມີຄວາມຮັບຜິດຊອບ. ພວກເຮົາສາມາດໄວ້ວາງໃຈພວກເຂົາໄດ້ແນວໃດ? ພວກເຮົາຮູ້ໄດ້ແນວໃດວ່າພວກເຂົາມີຄວາມຈິງຈັງແລະສົມບູນແບບ, ແລະບໍ່ພຽງແຕ່ໃຊ້ "AI ທີ່ມີຄວາມຮັບຜິດຊອບ" ເປັນ gimmick ການຕະຫຼາດ?

ສາດສະດາຈານ Toby Walsh: ພວກເຮົາຈໍາເປັນຕ້ອງເພີ່ມຄວາມໂປ່ງໃສ. ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະເຂົ້າໃຈຄວາມສາມາດແລະຂໍ້ຈໍາກັດຂອງລະບົບ AI. ພວກເຮົາຄວນ “ລົງຄະແນນສຽງໂດຍການເຮັດ” – ເລືອກໃຊ້ບໍລິການຢ່າງມີຄວາມຮັບຜິດຊອບ.

ຂ້າພະເຈົ້າເຊື່ອຢ່າງແທ້ຈິງວ່າວິທີການທີ່ທຸລະກິດໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບຈະກາຍເປັນຄວາມແຕກຕ່າງໃນຕະຫຼາດ, ໃຫ້ພວກເຂົາມີປະໂຫຍດທາງດ້ານການຄ້າ. ຖ້າບໍລິສັດເຄົາລົບຂໍ້ມູນຂອງລູກຄ້າ, ມັນຈະໄດ້ຮັບຜົນປະໂຫຍດແລະດຶງດູດລູກຄ້າ.

ທຸລະກິດຈະຮັບຮູ້ວ່າການເຮັດສິ່ງທີ່ຖືກຕ້ອງບໍ່ພຽງແຕ່ມີຈັນຍາບັນ, ແຕ່ຍັງຈະເຮັດໃຫ້ພວກເຂົາປະສົບຜົນສໍາເລັດຫຼາຍຂຶ້ນ. ຂ້າພະເຈົ້າເຫັນວ່ານີ້ເປັນວິທີທີ່ຈະແຍກຄວາມແຕກຕ່າງລະຫວ່າງທຸລະກິດ, ແລະທຸລະກິດທີ່ມີຄວາມຮັບຜິດຊອບແມ່ນວິທີທີ່ພວກເຮົາຮູ້ສຶກສະດວກສະບາຍໃນການເຮັດທຸລະກິດ.

'ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາອາດຈະປະສົບກັບໄລຍະເວລາຂອງການເປັນອານານິຄົມດິຈິຕອນ'

- ຫວຽດນາມ​ແມ່ນ​ໜຶ່ງ​ໃນ​ຈຳນວນ​ບໍ່​ເທົ່າ​ໃດ​ປະ​ເທດ​ພິຈາລະນາ​ປະກາດ​ໃຊ້​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ປະດິດ. ການປະເມີນຜົນຂອງເຈົ້າແມ່ນຫຍັງ? ຕາມ​ຄວາມ​ຄິດ​ເຫັນ​ຂອງ​ທ່ານ, ສຳລັບ​ບັນດາ​ປະ​ເທດ​ພວມ​ພັດທະນາ​ຄື ຫວຽດນາມ, ​ແມ່ນ​ບັນດາ​ສິ່ງ​ທ້າ​ທາຍ​ກ່ຽວ​ກັບ​ຈັນຍາ​ບັນ ​ແລະ ຄວາມ​ໝັ້ນຄົງ​ໃນ​ການ​ພັດທະນາ AI? ທ່ານ​ສາດສະດາຈານ​ມີ​ຂໍ້​ສະ​ເໜີ​ແນະ​ແນວ​ໃດ​ເພື່ອ​ໃຫ້ ຫວຽດນາມ ບັນລຸ​ໄດ້​ບັນດາ​ຈຸດໝາຍ​ໃນ​ຍຸດ​ທະ​ສາດ AI - ​ເປັນ​ອັນ​ດັບ​ໜຶ່ງ​ຂອງ​ພາກ​ພື້ນ ​ແລະ ​ໃນ​ໂລກ​ໃນ​ການ​ຄົ້ນຄວ້າ ​ແລະ ຊ່ຽວຊານ AI?

ສາດສະດາຈານ Toby Walsh: ຂ້າພະ​ເຈົ້າດີ​ໃຈ​ທີ່ ຫວຽດນາມ ​ແມ່ນ​ໜຶ່ງ​ໃນ​ບັນດາ​ປະ​ເທດ​ບຸກ​ເບີກ​ທີ່​ຈະ​ມີ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ປະດິດ. ນີ້ແມ່ນສິ່ງສໍາຄັນເພາະວ່າແຕ່ລະປະເທດມີຄຸນຄ່າແລະວັດທະນະທໍາຂອງຕົນເອງແລະຕ້ອງການກົດຫມາຍເພື່ອປົກປ້ອງຄຸນຄ່າເຫຼົ່ານັ້ນ.

ຄຸນຄ່າ ​ແລະ ວັດທະນະທຳ​ຫວຽດນາມ ​ແມ່ນ​ແຕກ​ຕ່າງ​ກັບ ອົດ​ສະ​ຕາ​ລີ, ຈີນ ​ແລະ ອາ​ເມ​ລິ​ກາ. ພວກ​ເຮົາ​ບໍ່​ສາ​ມາດ​ຄາດ​ຫວັງ​ໃຫ້​ບໍ​ລິ​ສັດ​ເຕັກ​ໂນ​ໂລ​ຊີ​ຈາກ​ຈີນ​ຫຼື​ສະ​ຫະ​ລັດ​ປົກ​ປັກ​ຮັກ​ສາ​ວັດ​ທະ​ນະ​ທຳ​ແລະ​ພາ​ສາ​ຫວຽດ​ນາມ​ໂດຍ​ອັດ​ຕະ​ໂນ​ມັດ. ຫວຽດນາມ ຕ້ອງ​ມີ​ຂໍ້​ລິ​ເລີ່ມ​ເພື່ອ​ປົກ​ປັກ​ຮັກສາ​ສິ່ງ​ດັ່ງກ່າວ.

vnp-toby-walsh-2.jpg

ສາດສະດາຈານ Toby Walsh ເຕືອນວ່າຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາອາດຈະປະສົບກັບໄລຍະເວລາຂອງການເປັນອານານິຄົມດິຈິຕອນ. (ພາບ: Minh Son/Vietnam+)

ຂ້າ​ພະ​ເຈົ້າ​ຈື່​ໄດ້​ວ່າ​ໃນ​ໄລ​ຍະ​ຜ່ານ​ມາ, ປະ​ເທດ​ທີ່​ພັດ​ທະ​ນາ​ຈໍາ​ນວນ​ຫຼາຍ​ໄດ້​ຜ່ານ​ໄລ​ຍະ​ການ​ອາ​ນາ​ນິ​ຄົມ​ທາງ​ດ້ານ​ຮ່າງ​ກາຍ. ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາສາມາດຜ່ານໄລຍະເວລາຂອງ "ອານານິຄົມດິຈິຕອນ." ຂໍ້ມູນຂອງທ່ານຈະຖືກຂູດຮີດແລະທ່ານຈະກາຍເປັນຊັບພະຍາກອນທີ່ມີລາຄາຖືກ.

ນີ້ມີຄວາມສ່ຽງຖ້າປະເທດກໍາລັງພັດທະນາພັດທະນາອຸດສາຫະກໍາ AI ໃນທາງທີ່ພຽງແຕ່ຂຸດຄົ້ນຂໍ້ມູນໂດຍບໍ່ມີການຄວບຄຸມຫຼືປົກປ້ອງຜົນປະໂຫຍດຂອງຕົນເອງ.

- ດັ່ງນັ້ນວິທີການເອົາຊະນະສະຖານະການນີ້, ອາຈານ?

ອາຈານ Toby Walsh: ມັນງ່າຍດາຍ, ລົງທຶນໃນຄົນ. ຄົນທີ່ມີທັກສະສູງ, ໃຫ້ແນ່ໃຈວ່າພວກເຂົາເຂົ້າໃຈ AI. ສະຫນັບສະຫນູນຜູ້ປະກອບການ AI, ບໍລິສັດ, ສະຫນັບສະຫນູນວິທະຍາໄລ. ມີຄວາມຫ້າວຫັນ. ແທນ​ທີ່​ຈະ​ລໍ​ຖ້າ​ໃຫ້​ປະ​ເທດ​ອື່ນ​ຖ່າຍ​ທອດ​ເຕັກ​ໂນ​ໂລ​ຊີ​ຫຼື​ຊີ້​ນໍາ​ພວກ​ເຮົາ, ພວກ​ເຮົາ​ຕ້ອງ​ມີ​ຄວາມ​ຕັ້ງ​ຫນ້າ​ແລະ​ເປັນ​ເຈົ້າ​ຂອງ​ເຕັກ​ໂນ​ໂລ​ຊີ.

ສິ່ງ​ສຳຄັນ​ກວ່າ​ນັ້ນ, ພວກ​ຂ້າພະ​ເຈົ້າ​ຕ້ອງ​ຕັ້ງໜ້າ​ຊຸກຍູ້​ບັນດາ​ເວທີ​ປາ​ໄສ​ສັງຄົມ​ນິຍົມ​ເພື່ອ​ສ້າງ​ສະພາບ​ແວດ​ລ້ອມ​ທີ່​ປອດ​ໄພ​ໃຫ້​ຜູ້​ຊົມ​ໃຊ້​ຢູ່ ຫວຽດນາມ, ​ໃນ​ຂະນະ​ທີ່​ບໍ່​ມີ​ຜົນ​ສະທ້ອນ​ເຖິງ​ປະຊາທິປະ​ໄຕ​ຂອງ​ປະ​ເທດ.

ໃນຄວາມເປັນຈິງ, ມີຕົວຢ່າງຈໍານວນຫລາຍກ່ຽວກັບວິທີການສື່ມວນຊົນສັງຄົມມີອິດທິພົນຕໍ່ຜົນການເລືອກຕັ້ງ, ປະເທດທີ່ແບ່ງອອກ, ແລະແມ້ກະທັ້ງການກະຕຸ້ນການກໍ່ການຮ້າຍ.

- AI ພັດທະນາຫຼາຍຢູ່ຫວຽດນາມ. ​ໃນ​ໄລຍະ​ມໍ່ໆ​ມາ​ນີ້, ຫວຽດນາມ​ມີ​ຫຼາຍ​ນະ​ໂຍບາຍ​ຊຸກຍູ້​ການ​ພັດທະນາ AI, ​ແຕ່​ຫວຽດນາມ​ຍັງ​ປະສົບ​ກັບ​ບັນຫາ, ​ແມ່ນ​ການ​ສໍ້​ໂກງ​ຍ້ອນ AI. ດັ່ງ​ນັ້ນ, ຕາມ​ທ່ານ​ສາດສະດາຈານ​ແລ້ວ, ຫວຽດນາມ ຄວນ​ຮັບ​ມື​ກັບ​ສະພາບ​ການ​ນີ້​ແນວ​ໃດ?

ສາດສະດາຈານ Toby Walsh: ສໍາລັບບຸກຄົນ, ຂ້າພະເຈົ້າຄິດວ່າວິທີທີ່ງ່າຍທີ່ສຸດແມ່ນການກວດສອບຂໍ້ມູນ. ຕົວຢ່າງ: ເມື່ອພວກເຮົາໄດ້ຮັບໂທລະສັບ ຫຼື ອີເມວ, ຕົວຢ່າງຈາກທະນາຄານ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ກວດສອບມັນອີກຄັ້ງ: ພວກເຮົາສາມາດໂທຫາເບີໂທລະສັບນັ້ນຄືນ ຫຼື ຕິດຕໍ່ທະນາຄານໂດຍກົງເພື່ອກວດສອບຂໍ້ມູນ. ປະຈຸ​ບັນ​ມີ​ອີ​ເມລ​ປອມ, ​ເບີ​ໂທລະສັບ​ປອມ​ຫຼາຍ​ຢ່າງ, ​ແມ່ນ​ແຕ່​ການ​ໂທ Zoom ກໍ​ສາມາດ​ປອມ​ແປງ​ໄດ້. ການຫລອກລວງເຫຼົ່ານີ້ແມ່ນງ່າຍດາຍຫຼາຍ, ລາຄາບໍ່ແພງແລະບໍ່ໃຊ້ເວລາຫຼາຍ.

ໃນຄອບຄົວຂອງຂ້ອຍ, ພວກເຮົາຍັງມີມາດຕະການຄວາມປອດໄພຂອງຕົນເອງ: "ຄໍາຖາມລັບ" ທີ່ມີພຽງແຕ່ສະມາຊິກໃນຄອບຄົວຮູ້, ເຊັ່ນ: ຊື່ຂອງກະຕ່າຍສັດລ້ຽງຂອງພວກເຮົາ. ນີ້ຮັບປະກັນວ່າຂໍ້ມູນທີ່ສໍາຄັນຢູ່ໃນຄອບຄົວແລະຈະບໍ່ຮົ່ວໄຫລອອກ.

- ຂອບໃຈຫຼາຍໆ./.

ສາດສະດາຈານ Toby Walsh ເປັນນັກວິຊາການກຽດຕິຍົດຂອງ ARC ແລະສາດສະດາຈານວິທະຍາສາດດ້ານປັນຍາປະດິດ (AI) ທີ່ມະຫາວິທະຍາໄລ New South Wales Sydney (UNSW). ລາວເປັນຜູ້ສະຫນັບສະຫນູນທີ່ເຂັ້ມແຂງສໍາລັບການກໍານົດຂອບເຂດເພື່ອຮັບປະກັນ AI ຖືກນໍາໃຊ້ເພື່ອປັບປຸງຊີວິດຂອງປະຊາຊົນ.

ລາວຍັງເປັນເພື່ອນຂອງສະຖາບັນວິທະຍາສາດອົດສະຕາລີແລະໄດ້ຮັບຊື່ເຂົ້າໃນບັນຊີລາຍຊື່ສາກົນຂອງ "ຜູ້ມີອິດທິພົນໃນ AI."

(ຫວຽດນາມ+)

ທີ່ມາ: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp


(0)

ວິຫານ Notre Dame ຢູ່ນະຄອນ ໂຮ່ຈີມິນ ໄດ້ສະຫວ່າງສະໄຫວເພື່ອຕ້ອນຮັບບຸນຄຣິສມາສ 2025
ເດັກຍິງຮ່າໂນ້ຍ "ແຕ່ງຕົວ" ທີ່ສວຍງາມສໍາລັບລະດູການວັນຄຣິດສະມາດ
ຫລັງ​ຈາກ​ລົມ​ພາຍຸ​ແລະ​ນ້ຳ​ຖ້ວມ, ໝູ່​ບ້ານ Tet chrysanthemum ​ເມືອງ Gia Lai ຫວັງ​ວ່າ​ຈະ​ບໍ່​ມີ​ໄຟຟ້າ​ໃຊ້​ເພື່ອ​ຊ່ວຍ​ປະ​ຢັດ​ໂຮງງານ.
ນະຄອນຫຼວງຂອງຕົ້ນຫມາກໂປມສີເຫຼືອງໃນພາກກາງໄດ້ຮັບຄວາມເສຍຫາຍຢ່າງຫນັກຫຼັງຈາກໄພພິບັດທໍາມະຊາດສອງເທົ່າ

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

ຮ້ານກາເຟ ດາລາດ ເຫັນວ່າມີລູກຄ້າເພີ່ມຂຶ້ນ 300% ຍ້ອນວ່າ ເຈົ້າຂອງຫຼິ້ນລະຄອນ 'ລະຄອນສິລະປະການຕໍ່ສູ້'

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ