ໃນຂອບເຂດສັບປະດາວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ VinFuture 2025 ໄດ້ເຕົ້າໂຮມບັນດານັກວິທະຍາສາດ, ນັກການເມືອງ ແລະ ນັກປະດິດສ້າງ ເພື່ອປຶກສາຫາລືກ່ຽວກັບການພັດທະນາ AI ຢ່າງມີຄວາມຮັບຜິດຊອບ, ມຸ່ງໄປເຖິງຄຸນຄ່າດ້ານມະນຸດສະທຳ.
ຢູ່ຂ້າງນອກຂອງການສົນທະນາ, ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາໄລ New South Wales (ອົດສະຕາລີ), ນັກວິຊາການຂອງສະມາຄົມອາເມລິກາສໍາລັບເຄື່ອງຈັກຄອມພິວເຕີ້ໄດ້ແບ່ງປັນກ່ຽວກັບຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບຂອງການນໍາໃຊ້ AI.
ການນໍາໃຊ້ທີ່ຮັບຜິດຊອບຂອງ AI ຄວນເປັນຂໍ້ບັງຄັບ
- ອີງຕາມສາດສະດາຈານ, ການນໍາໃຊ້ຄວາມຮັບຜິດຊອບຂອງ AI ຄວນມີຄວາມສະຫມັກໃຈຫຼືບັງຄັບ? ແລະພວກເຮົາຄວນປະພຶດຕົວແນວໃດຕໍ່ AI?
ສາດສະດາຈານ Toby Walsh: ຂ້າພະເຈົ້າເຊື່ອຢ່າງຫນັກແຫນ້ນວ່າການນໍາໃຊ້ AI ທີ່ມີຄວາມຮັບຜິດຊອບຄວນຈະເປັນຂໍ້ບັງຄັບ. ໃນປັດຈຸບັນມີແຮງຈູງໃຈທີ່ຜິດຫວັງ, ດ້ວຍເງິນຈໍານວນຫຼວງຫຼາຍທີ່ເຮັດກັບ AI, ແລະວິທີດຽວທີ່ຈະຮັບປະກັນການປະພຶດທີ່ດີແມ່ນຕ້ອງມີກົດລະບຽບທີ່ເຂັ້ມງວດ, ດັ່ງນັ້ນຜົນປະໂຫຍດສາທາລະນະສະເຫມີມີຄວາມສົມດູນກັບຜົນປະໂຫຍດທາງການຄ້າ.
- ທ່ານສາມາດໃຫ້ຕົວຢ່າງສະເພາະຈາກປະເທດທີ່ແຕກຕ່າງກັນຂອງຄໍາຮ້ອງສະຫມັກ AI ທີ່ມີຄວາມຮັບຜິດຊອບແລະຈັນຍາບັນ?
ສາດສະດາຈານ Toby Walsh: ຕົວຢ່າງຄລາສສິກແມ່ນການຕັດສິນໃຈທີ່ມີສະເຕກສູງ, ເຊັ່ນການຕັດສິນລົງໂທດແລະການລົງໂທດໃນສະຫະລັດ, ບ່ອນທີ່ລະບົບ AI ຖືກນໍາໃຊ້ເພື່ອແນະນໍາກ່ຽວກັບການຈໍາຄຸກຂອງບຸກຄົນແລະຄວາມເປັນໄປໄດ້ຂອງການກະທໍາຜິດຄືນໃຫມ່.
ແຕ່ຫນ້າເສຍດາຍ, ລະບົບນີ້ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນປະຫວັດສາດແລະບໍ່ຕັ້ງໃຈສະທ້ອນໃຫ້ເຫັນຄວາມລໍາອຽງທາງເຊື້ອຊາດທີ່ຜ່ານມາເຊິ່ງນໍາໄປສູ່ການຈໍາແນກຕໍ່ຄົນຜິວດໍາ. ພວກເຮົາບໍ່ຄວນປ່ອຍໃຫ້ລະບົບດັ່ງກ່າວຕັດສິນໃຈຜູ້ທີ່ໄດ້ຮັບການຈໍາຄຸກ.
- ເມື່ອ AI ເຮັດຜິດ, ໃຜຮັບຜິດຊອບ? ໂດຍສະເພາະກັບຕົວແທນ AI, ພວກເຮົາມີຄວາມສາມາດໃນການແກ້ໄຂກົນໄກການດໍາເນີນງານຂອງພວກເຂົາບໍ?
ສາດສະດາຈານ Toby Walsh: ບັນຫາຫຼັກເມື່ອ AI ເຮັດຜິດພາດແມ່ນພວກເຮົາບໍ່ສາມາດຮັບຜິດຊອບ AI ໄດ້. AI ບໍ່ແມ່ນມະນຸດ ແລະນີ້ແມ່ນຂໍ້ບົກພ່ອງໃນທຸກລະບົບກົດໝາຍໃນ ໂລກ . ມະນຸດເທົ່ານັ້ນທີ່ຮັບຜິດຊອບຕໍ່ການຕັດສິນໃຈ ແລະການກະທໍາຂອງເຂົາເຈົ້າ.
ທັນໃດນັ້ນ, ພວກເຮົາມີ "ຕົວແທນ" ໃຫມ່ທີ່ເອີ້ນວ່າ AI, ເຊິ່ງສາມາດ - ຖ້າພວກເຮົາອະນຸຍາດໃຫ້ມັນ - ຕັດສິນໃຈແລະດໍາເນີນການໃນໂລກຂອງພວກເຮົາ, ເຊິ່ງກໍ່ໃຫ້ເກີດສິ່ງທ້າທາຍ: ໃຜພວກເຮົາຈະຮັບຜິດຊອບ?
ຄໍາຕອບແມ່ນໃຫ້ບໍລິສັດທີ່ນໍາໃຊ້ແລະປະຕິບັດລະບົບ AI ຮັບຜິດຊອບຕໍ່ຜົນສະທ້ອນ "ເຄື່ອງຈັກ" ເຫຼົ່ານີ້.

ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາໄລ New South Wales ໄດ້ແບ່ງປັນໃນກອງປະຊຸມສໍາມະນາ “AI ສໍາລັບມະນຸດ: ຈັນຍາບັນ AI ແລະຄວາມປອດໄພໃນຍຸກໃໝ່” ໃນຂອບເຂດສັບປະດາ ວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ VinFuture 2025. (ພາບ: Minh Son/Vietnam+)
- ຫຼາຍບໍລິສັດຍັງເວົ້າກ່ຽວກັບ AI ທີ່ມີຄວາມຮັບຜິດຊອບ. ພວກເຮົາສາມາດໄວ້ວາງໃຈພວກເຂົາໄດ້ແນວໃດ? ພວກເຮົາຮູ້ໄດ້ແນວໃດວ່າພວກເຂົາມີຄວາມຈິງຈັງແລະສົມບູນແບບ, ແລະບໍ່ພຽງແຕ່ໃຊ້ "AI ທີ່ມີຄວາມຮັບຜິດຊອບ" ເປັນ gimmick ການຕະຫຼາດ?
ສາດສະດາຈານ Toby Walsh: ພວກເຮົາຈໍາເປັນຕ້ອງເພີ່ມຄວາມໂປ່ງໃສ. ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະເຂົ້າໃຈຄວາມສາມາດແລະຂໍ້ຈໍາກັດຂອງລະບົບ AI. ພວກເຮົາຄວນ “ລົງຄະແນນສຽງໂດຍການເຮັດ” – ເລືອກໃຊ້ບໍລິການຢ່າງມີຄວາມຮັບຜິດຊອບ.
ຂ້າພະເຈົ້າເຊື່ອຢ່າງແທ້ຈິງວ່າວິທີການທີ່ທຸລະກິດໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບຈະກາຍເປັນຄວາມແຕກຕ່າງໃນຕະຫຼາດ, ໃຫ້ພວກເຂົາມີປະໂຫຍດທາງດ້ານການຄ້າ. ຖ້າບໍລິສັດເຄົາລົບຂໍ້ມູນຂອງລູກຄ້າ, ມັນຈະໄດ້ຮັບຜົນປະໂຫຍດແລະດຶງດູດລູກຄ້າ.
ທຸລະກິດຈະຮັບຮູ້ວ່າການເຮັດສິ່ງທີ່ຖືກຕ້ອງບໍ່ພຽງແຕ່ມີຈັນຍາບັນ, ແຕ່ຍັງຈະເຮັດໃຫ້ພວກເຂົາປະສົບຜົນສໍາເລັດຫຼາຍຂຶ້ນ. ຂ້າພະເຈົ້າເຫັນວ່ານີ້ເປັນວິທີທີ່ຈະແຍກຄວາມແຕກຕ່າງລະຫວ່າງທຸລະກິດ, ແລະທຸລະກິດທີ່ມີຄວາມຮັບຜິດຊອບແມ່ນວິທີທີ່ພວກເຮົາຮູ້ສຶກສະດວກສະບາຍໃນການເຮັດທຸລະກິດ.
'ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາອາດຈະປະສົບກັບໄລຍະເວລາຂອງການເປັນອານານິຄົມດິຈິຕອນ'
- ຫວຽດນາມແມ່ນໜຶ່ງໃນຈຳນວນບໍ່ເທົ່າໃດປະເທດພິຈາລະນາປະກາດໃຊ້ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ. ການປະເມີນຜົນຂອງເຈົ້າແມ່ນຫຍັງ? ຕາມຄວາມຄິດເຫັນຂອງທ່ານ, ສຳລັບບັນດາປະເທດພວມພັດທະນາຄື ຫວຽດນາມ, ແມ່ນບັນດາສິ່ງທ້າທາຍກ່ຽວກັບຈັນຍາບັນ ແລະ ຄວາມໝັ້ນຄົງໃນການພັດທະນາ AI? ທ່ານສາດສະດາຈານມີຂໍ້ສະເໜີແນະແນວໃດເພື່ອໃຫ້ ຫວຽດນາມ ບັນລຸໄດ້ບັນດາຈຸດໝາຍໃນຍຸດທະສາດ AI - ເປັນອັນດັບໜຶ່ງຂອງພາກພື້ນ ແລະ ໃນໂລກໃນການຄົ້ນຄວ້າ ແລະ ຊ່ຽວຊານ AI?
ສາດສະດາຈານ Toby Walsh: ຂ້າພະເຈົ້າດີໃຈທີ່ ຫວຽດນາມ ແມ່ນໜຶ່ງໃນບັນດາປະເທດບຸກເບີກທີ່ຈະມີກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ. ນີ້ແມ່ນສິ່ງສໍາຄັນເພາະວ່າແຕ່ລະປະເທດມີຄຸນຄ່າແລະວັດທະນະທໍາຂອງຕົນເອງແລະຕ້ອງການກົດຫມາຍເພື່ອປົກປ້ອງຄຸນຄ່າເຫຼົ່ານັ້ນ.
ຄຸນຄ່າ ແລະ ວັດທະນະທຳຫວຽດນາມ ແມ່ນແຕກຕ່າງກັບ ອົດສະຕາລີ, ຈີນ ແລະ ອາເມລິກາ. ພວກເຮົາບໍ່ສາມາດຄາດຫວັງໃຫ້ບໍລິສັດເຕັກໂນໂລຊີຈາກຈີນຫຼືສະຫະລັດປົກປັກຮັກສາວັດທະນະທຳແລະພາສາຫວຽດນາມໂດຍອັດຕະໂນມັດ. ຫວຽດນາມ ຕ້ອງມີຂໍ້ລິເລີ່ມເພື່ອປົກປັກຮັກສາສິ່ງດັ່ງກ່າວ.

ສາດສະດາຈານ Toby Walsh ເຕືອນວ່າຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາອາດຈະປະສົບກັບໄລຍະເວລາຂອງການເປັນອານານິຄົມດິຈິຕອນ. (ພາບ: Minh Son/Vietnam+)
ຂ້າພະເຈົ້າຈື່ໄດ້ວ່າໃນໄລຍະຜ່ານມາ, ປະເທດທີ່ພັດທະນາຈໍານວນຫຼາຍໄດ້ຜ່ານໄລຍະການອານານິຄົມທາງດ້ານຮ່າງກາຍ. ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາສາມາດຜ່ານໄລຍະເວລາຂອງ "ອານານິຄົມດິຈິຕອນ." ຂໍ້ມູນຂອງທ່ານຈະຖືກຂູດຮີດແລະທ່ານຈະກາຍເປັນຊັບພະຍາກອນທີ່ມີລາຄາຖືກ.
ນີ້ມີຄວາມສ່ຽງຖ້າປະເທດກໍາລັງພັດທະນາພັດທະນາອຸດສາຫະກໍາ AI ໃນທາງທີ່ພຽງແຕ່ຂຸດຄົ້ນຂໍ້ມູນໂດຍບໍ່ມີການຄວບຄຸມຫຼືປົກປ້ອງຜົນປະໂຫຍດຂອງຕົນເອງ.
- ດັ່ງນັ້ນວິທີການເອົາຊະນະສະຖານະການນີ້, ອາຈານ?
ອາຈານ Toby Walsh: ມັນງ່າຍດາຍ, ລົງທຶນໃນຄົນ. ຄົນທີ່ມີທັກສະສູງ, ໃຫ້ແນ່ໃຈວ່າພວກເຂົາເຂົ້າໃຈ AI. ສະຫນັບສະຫນູນຜູ້ປະກອບການ AI, ບໍລິສັດ, ສະຫນັບສະຫນູນວິທະຍາໄລ. ມີຄວາມຫ້າວຫັນ. ແທນທີ່ຈະລໍຖ້າໃຫ້ປະເທດອື່ນຖ່າຍທອດເຕັກໂນໂລຊີຫຼືຊີ້ນໍາພວກເຮົາ, ພວກເຮົາຕ້ອງມີຄວາມຕັ້ງຫນ້າແລະເປັນເຈົ້າຂອງເຕັກໂນໂລຊີ.
ສິ່ງສຳຄັນກວ່ານັ້ນ, ພວກຂ້າພະເຈົ້າຕ້ອງຕັ້ງໜ້າຊຸກຍູ້ບັນດາເວທີປາໄສສັງຄົມນິຍົມເພື່ອສ້າງສະພາບແວດລ້ອມທີ່ປອດໄພໃຫ້ຜູ້ຊົມໃຊ້ຢູ່ ຫວຽດນາມ, ໃນຂະນະທີ່ບໍ່ມີຜົນສະທ້ອນເຖິງປະຊາທິປະໄຕຂອງປະເທດ.
ໃນຄວາມເປັນຈິງ, ມີຕົວຢ່າງຈໍານວນຫລາຍກ່ຽວກັບວິທີການສື່ມວນຊົນສັງຄົມມີອິດທິພົນຕໍ່ຜົນການເລືອກຕັ້ງ, ປະເທດທີ່ແບ່ງອອກ, ແລະແມ້ກະທັ້ງການກະຕຸ້ນການກໍ່ການຮ້າຍ.
- AI ພັດທະນາຫຼາຍຢູ່ຫວຽດນາມ. ໃນໄລຍະມໍ່ໆມານີ້, ຫວຽດນາມມີຫຼາຍນະໂຍບາຍຊຸກຍູ້ການພັດທະນາ AI, ແຕ່ຫວຽດນາມຍັງປະສົບກັບບັນຫາ, ແມ່ນການສໍ້ໂກງຍ້ອນ AI. ດັ່ງນັ້ນ, ຕາມທ່ານສາດສະດາຈານແລ້ວ, ຫວຽດນາມ ຄວນຮັບມືກັບສະພາບການນີ້ແນວໃດ?
ສາດສະດາຈານ Toby Walsh: ສໍາລັບບຸກຄົນ, ຂ້າພະເຈົ້າຄິດວ່າວິທີທີ່ງ່າຍທີ່ສຸດແມ່ນການກວດສອບຂໍ້ມູນ. ຕົວຢ່າງ: ເມື່ອພວກເຮົາໄດ້ຮັບໂທລະສັບ ຫຼື ອີເມວ, ຕົວຢ່າງຈາກທະນາຄານ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ກວດສອບມັນອີກຄັ້ງ: ພວກເຮົາສາມາດໂທຫາເບີໂທລະສັບນັ້ນຄືນ ຫຼື ຕິດຕໍ່ທະນາຄານໂດຍກົງເພື່ອກວດສອບຂໍ້ມູນ. ປະຈຸບັນມີອີເມລປອມ, ເບີໂທລະສັບປອມຫຼາຍຢ່າງ, ແມ່ນແຕ່ການໂທ Zoom ກໍສາມາດປອມແປງໄດ້. ການຫລອກລວງເຫຼົ່ານີ້ແມ່ນງ່າຍດາຍຫຼາຍ, ລາຄາບໍ່ແພງແລະບໍ່ໃຊ້ເວລາຫຼາຍ.
ໃນຄອບຄົວຂອງຂ້ອຍ, ພວກເຮົາຍັງມີມາດຕະການຄວາມປອດໄພຂອງຕົນເອງ: "ຄໍາຖາມລັບ" ທີ່ມີພຽງແຕ່ສະມາຊິກໃນຄອບຄົວຮູ້, ເຊັ່ນ: ຊື່ຂອງກະຕ່າຍສັດລ້ຽງຂອງພວກເຮົາ. ນີ້ຮັບປະກັນວ່າຂໍ້ມູນທີ່ສໍາຄັນຢູ່ໃນຄອບຄົວແລະຈະບໍ່ຮົ່ວໄຫລອອກ.
- ຂອບໃຈຫຼາຍໆ./.
ສາດສະດາຈານ Toby Walsh ເປັນນັກວິຊາການກຽດຕິຍົດຂອງ ARC ແລະສາດສະດາຈານວິທະຍາສາດດ້ານປັນຍາປະດິດ (AI) ທີ່ມະຫາວິທະຍາໄລ New South Wales Sydney (UNSW). ລາວເປັນຜູ້ສະຫນັບສະຫນູນທີ່ເຂັ້ມແຂງສໍາລັບການກໍານົດຂອບເຂດເພື່ອຮັບປະກັນ AI ຖືກນໍາໃຊ້ເພື່ອປັບປຸງຊີວິດຂອງປະຊາຊົນ.
ລາວຍັງເປັນເພື່ອນຂອງສະຖາບັນວິທະຍາສາດອົດສະຕາລີແລະໄດ້ຮັບຊື່ເຂົ້າໃນບັນຊີລາຍຊື່ສາກົນຂອງ "ຜູ້ມີອິດທິພົນໃນ AI."
(ຫວຽດນາມ+)
ທີ່ມາ: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






(0)