Vietnam.vn - Nền tảng quảng bá Việt Nam

ຫວຽດນາມຄວນເຮັດແນວໃດເພື່ອຫຼີກລ້ຽງຄວາມສ່ຽງທີ່ຈະກາຍເປັນຊັບພະຍາກອນລາຄາຖືກ?

(ດ່ານັ້ງ) - ໃນສະພາບການທີ່ຫວຽດນາມ ແມ່ນໜຶ່ງໃນບັນດາປະເທດບຸກເບີກພິຈາລະນາປະກາດໃຊ້ກົດໝາຍ AI, ບັນຫາບໍ່ພຽງແຕ່ສົ່ງເສີມເຕັກໂນໂລຢີເທົ່ານັ້ນ ຫາກຍັງແມ່ນການປົກປ້ອງອະທິປະໄຕດິຈິຕອນ ແລະ ຄວາມປອດໄພຂອງປະຊາຊົນ.

Báo Dân tríBáo Dân trí03/12/2025


ການລະເບີດຂອງປັນຍາປະດິດ (AI) ນໍາເອົາຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງມາໃຫ້ມະນຸດແຕ່ຍັງເຮັດໃຫ້ເກີດຜົນສະທ້ອນທີ່ນັບບໍ່ຖ້ວນ: ຈາກການລໍາອຽງດ້ານເຊື້ອຊາດ, ການສໍ້ໂກງອອນໄລນ໌ທີ່ສັບສົນໄປສູ່ຄວາມສ່ຽງຂອງບັນດາປະເທດທີ່ກໍາລັງພັດທະນາກາຍເປັນ "ບໍ່ແຮ່ຂໍ້ມູນ" ລາຄາຖືກ.

ຕາມຄວາມເປັນຈິງນັ້ນ, ການໃຊ້ AI ທີ່ມີຄວາມຮັບຜິດຊອບຄວນມີຄວາມສະໝັກໃຈ ຫຼື ບັງຄັບ? ຫວຽດນາມ ຄວນ​ເຮັດ​ແນວ​ໃດ​ເມື່ອ​ສ້າງ​ແລວ​ທາງ​ດ້ານ​ກົດໝາຍ​ໃຫ້​ແກ່​ຂະ​ແໜງ​ການ​ນີ້?

ຢູ່​ນອກ​ງານ​ວາງສະ​ແດງ ​ວິ​ທະ​ຍາ​ສາດ ​ແລະ ​ເຕັກ​ໂນ​ໂລ​ຊີ VinFuture Week, ນັກ​ຂ່າວ​ໄດ້​ມີ​ການ​ສົນທະນາ​ກັບ​ສາດສະດາຈານ Toby Walsh - ມະຫາວິທະຍາ​ໄລ New South Wales (ອົດ​ສະ​ຕາ​ລີ), ນັກ​ສຶກສາ​ສະມາຄົມ​ຄອມ​ພິວ​ເຕີ​ອາ​ເມ​ລິ​ກາ.

ອາຈານສະເຫນີຄວາມເຂົ້າໃຈກ່ຽວກັບວິທີທີ່ພວກເຮົາ "ປະຕິບັດ" ກັບ AI, ຈາກການຖື "ເຄື່ອງຈັກ" ຮັບຜິດຊອບຕໍ່ຄໍາແນະນໍາສໍາລັບຄອບຄົວເພື່ອປົກປ້ອງຕົນເອງຈາກຄື້ນຟອງຂອງການຫລອກລວງເຕັກໂນໂລຢີສູງ.

ໃຜຮັບຜິດຊອບ AI?

ສາດສະດາຈານ, ການໃຊ້ AI ທີ່ຮັບຜິດຊອບຄວນມີຄວາມສະໝັກໃຈ ຫຼື ບັງຄັບ? ແລະພວກເຮົາຄວນປະພຶດຕົວແນວໃດຕໍ່ AI?

- ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ຢ່າງ​ຫນັກ​ແຫນ້ນ​ວ່າ​ການ​ນໍາ​ໃຊ້​ທີ່​ມີ​ຄວາມ​ຮັບ​ຜິດ​ຊອບ​ຂອງ AI ຄວນ​ຈະ​ເປັນ​ການ​ບັງ​ຄັບ ​. ມີແຮງຈູງໃຈທີ່ຫຼອກລວງໃນການຫຼີ້ນ , ດ້ວຍເງິນຈໍານວນຫຼວງຫຼາຍທີ່ເຮັດກັບ AI, ແລະວິທີດຽວທີ່ຈະຮັບປະກັນການປະພຶດທີ່ເຫມາະສົມແມ່ນການວາງກົດລະບຽບທີ່ເຂັ້ມງວດ , ດັ່ງນັ້ນຜົນປະໂຫຍດສາທາລະນະສະເຫມີມີຄວາມສົມດູນກັບຜົນປະໂຫຍດທາງການຄ້າ .

ເມື່ອ AI ເຮັດຜິດ, ໃຜຮັບຜິດຊອບ? ໂດຍສະເພາະກັບຕົວແທນ AI, ພວກເຮົາມີຄວາມສາມາດໃນການແກ້ໄຂກົນໄກການດໍາເນີນງານຂອງພວກເຂົາບໍ?

ບັນຫາຫຼັກຂອງ AI ເຮັດຜິດພາດແມ່ນວ່າພວກເຮົາບໍ່ສາມາດຮັບຜິດຊອບ AI ໄດ້. AI ບໍ່ແມ່ນມະນຸດ – ແລະນີ້ແມ່ນຂໍ້ບົກພ່ອງໃນທຸກລະບົບກົດໝາຍໃນ ໂລກ . ມະນຸດເທົ່ານັ້ນທີ່ສາມາດຮັບຜິດຊອບຕໍ່ການຕັດສິນໃຈ ແລະການກະທໍາຂອງເຂົາເຈົ້າ.

ຫວຽດນາມຄວນເຮັດແນວໃດເພື່ອຫຼີກລ້ຽງຄວາມສ່ຽງທີ່ຈະກາຍເປັນຊັບພະຍາກອນລາຄາຖືກ? - 1

ທັນໃດນັ້ນ, ພວກເຮົາມີ “ຕົວແທນ,” AI ໃໝ່, ທີ່ສາມາດ—ຖ້າພວກເຮົາອະນຸຍາດ—ເຮັດການຕັດສິນໃຈ ແລະດຳເນີນການໃນໂລກຂອງພວກເຮົາ, ເຊິ່ງກໍ່ໃຫ້ເກີດສິ່ງທ້າທາຍ: ພວກເຮົາຈະຮັບຜິດຊອບໃຜ?

ຄໍາຕອບແມ່ນ: ບໍລິສັດທີ່ນໍາໃຊ້ແລະປະຕິບັດລະບົບ AI ຕ້ອງຮັບຜິດຊອບຕໍ່ຜົນສະທ້ອນຂອງ "ເຄື່ອງຈັກ" ເຫຼົ່ານີ້.

ບໍລິສັດຈໍານວນຫຼາຍຍັງເວົ້າກ່ຽວກັບ AI ທີ່ມີຄວາມຮັບຜິດຊອບ. ພວກເຮົາສາມາດໄວ້ວາງໃຈພວກເຂົາໄດ້ແນວໃດ? ພວກເຮົາຮູ້ໄດ້ແນວໃດວ່າພວກເຂົາມີຄວາມຈິງຈັງແລະສົມບູນແບບ, ແລະບໍ່ພຽງແຕ່ໃຊ້ "AI ທີ່ມີຄວາມຮັບຜິດຊອບ" ເປັນ gimmick ການຕະຫຼາດ?

- ພວກເຮົາຈໍາເປັນຕ້ອງເພີ່ມຄວາມໂປ່ງໃສ. ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະເຂົ້າໃຈຄວາມສາມາດແລະຂໍ້ຈໍາກັດຂອງລະບົບ AI. ພວກເຮົາຄວນ "ລົງຄະແນນສຽງໂດຍການເຮັດ", ນັ້ນແມ່ນ, ເລືອກທີ່ຈະໃຊ້ບໍລິການຢ່າງມີຄວາມຮັບຜິດຊອບ.

ຂ້າພະເຈົ້າເຊື່ອຢ່າງແທ້ຈິງວ່າວິທີການທີ່ທຸລະກິດໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບຈະກາຍເປັນຄວາມແຕກຕ່າງໃນຕະຫຼາດ, ໃຫ້ພວກເຂົາມີປະໂຫຍດທາງດ້ານການຄ້າ.

ຖ້າບໍລິສັດເຄົາລົບຂໍ້ມູນຂອງລູກຄ້າ, ມັນຈະໄດ້ຮັບຜົນປະໂຫຍດແລະດຶງດູດລູກຄ້າ. ທຸລະກິດຈະຮັບຮູ້ວ່າການເຮັດສິ່ງທີ່ຖືກຕ້ອງບໍ່ພຽງແຕ່ມີຈັນຍາບັນ, ແຕ່ຍັງຈະຊ່ວຍໃຫ້ພວກເຂົາປະສົບຜົນສໍາເລັດຫຼາຍຂຶ້ນ. ຂ້າພະເຈົ້າເຫັນວ່ານີ້ເປັນວິທີທີ່ຈະແຍກຄວາມແຕກຕ່າງລະຫວ່າງທຸລະກິດ, ແລະທຸລະກິດທີ່ມີຄວາມຮັບຜິດຊອບແມ່ນວິທີທີ່ພວກເຮົາຮູ້ສຶກສະດວກສະບາຍໃນການເຮັດທຸລະກິດ.

ຫວຽດນາມ ຕ້ອງ​ຕັ້ງໜ້າ​ປົກ​ປັກ​ຮັກສາ​ບັນດາ​ຄຸນຄ່າ​ວັດທະນະທຳ.

ຫວຽດນາມ ​ແມ່ນ​ໜຶ່ງ​ໃນ​ຈຳນວນ​ບໍ່​ເທົ່າ​ໃດ​ປະ​ເທດ​ທີ່​ພິຈາລະນາ​ປະກາດ​ໃຊ້​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ປະດິດ. ການປະເມີນຜົນຂອງເຈົ້າແມ່ນຫຍັງ? ຕາມ​ຄວາມ​ຄິດ​ເຫັນ​ຂອງ​ທ່ານ​ແລ້ວ, ສຳລັບ​ບັນດາ​ປະ​ເທດ​ພວມ​ພັດທະນາ​ຄື ຫວຽດນາມ, ສິ່ງ​ທ້າ​ທາຍ​ກ່ຽວ​ກັບ​ຈັນຍາ​ບັນ ​ແລະ ຄວາມ​ປອດ​ໄພ​ໃນ​ການ​ພັດທະນາ AI ​ແມ່ນ​ຫຍັງ?

- ຂ້າ​ພະ​ເຈົ້າ​ດີ​ໃຈ​ທີ່​ຫວຽດ​ນາມ​ແມ່ນ​ຫນຶ່ງ​ໃນ​ບັນ​ດາ​ປະ​ເທດ​ບຸກ​ເບີກ​ທີ່​ຈະ​ມີ​ກົດ​ຫມາຍ​ສະ​ເພາະ​ກ່ຽວ​ກັບ​ການ​ປັນຍາ​ທຽມ. ນີ້ແມ່ນສິ່ງສໍາຄັນເພາະວ່າແຕ່ລະປະເທດມີຄຸນຄ່າແລະວັດທະນະທໍາຂອງຕົນເອງ, ແລະຕ້ອງການກົດຫມາຍເພື່ອປົກປ້ອງຄຸນຄ່າເຫຼົ່ານັ້ນ.

ຄຸນຄ່າ ​ແລະ ວັດທະນະທຳ​ຫວຽດນາມ ​ແມ່ນ​ແຕກ​ຕ່າງ​ກັບ ອົດ​ສະ​ຕາ​ລີ, ຈີນ ​ແລະ ອາ​ເມ​ລິ​ກາ. ພວກ​ເຮົາ​ບໍ່​ສາ​ມາດ​ຄາດ​ຫວັງ​ໃຫ້​ບໍ​ລິ​ສັດ​ເຕັກ​ໂນ​ໂລ​ຊີ​ຈາກ​ຈີນ​ຫຼື​ສະ​ຫະ​ລັດ​ປົກ​ປັກ​ຮັກ​ສາ​ວັດ​ທະ​ນະ​ທຳ​ແລະ​ພາ​ສາ​ຫວຽດ​ນາມ​ໂດຍ​ອັດ​ຕະ​ໂນ​ມັດ. ຫວຽດນາມ ຕ້ອງ​ມີ​ຂໍ້​ລິ​ເລີ່ມ​ເພື່ອ​ປົກ​ປັກ​ຮັກສາ​ສິ່ງ​ດັ່ງກ່າວ.

ຂ້າ​ພະ​ເຈົ້າ​ຈື່​ໄດ້​ວ່າ​ໃນ​ໄລ​ຍະ​ຜ່ານ​ມາ​ປະ​ເທດ​ພັດ​ທະ​ນາ​ຈໍາ​ນວນ​ຫຼາຍ​ໄດ້​ຜ່ານ​ໄລ​ຍະ​ຂອງ​ການ​ອາ​ນາ​ນິ​ຄົມ​ທາງ​ດ້ານ​ຮ່າງ​ກາຍ. ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກເຮົາສາມາດຜ່ານໄລຍະເວລາຂອງ "ອານານິຄົມດິຈິຕອນ". ຂໍ້ມູນຂອງທ່ານຈະຖືກຂູດຮີດແລະທ່ານຈະກາຍເປັນຊັບພະຍາກອນທີ່ມີລາຄາຖືກ.

ນີ້ມີຄວາມສ່ຽງຖ້າປະເທດກໍາລັງພັດທະນາພັດທະນາອຸດສາຫະກໍາ AI ໃນທາງທີ່ພຽງແຕ່ຂຸດຄົ້ນຂໍ້ມູນໂດຍບໍ່ມີການຄວບຄຸມຫຼືປົກປ້ອງຜົນປະໂຫຍດຂອງຕົນເອງ.

ດັ່ງນັ້ນວິທີການເອົາຊະນະສະຖານະການນີ້?

- ມັນງ່າຍດາຍ: ລົງທຶນໃນຄົນ. ຄົນທີ່ມີທັກສະສູງ, ໃຫ້ແນ່ໃຈວ່າພວກເຂົາເຂົ້າໃຈ AI. ສະຫນັບສະຫນູນຜູ້ປະກອບການ, ບໍລິສັດ AI, ສະຫນັບສະຫນູນວິທະຍາໄລ. ມີຄວາມຫ້າວຫັນ. ແທນ​ທີ່​ຈະ​ລໍ​ຖ້າ​ໃຫ້​ປະ​ເທດ​ອື່ນ​ຖ່າຍ​ທອດ​ເຕັກ​ໂນ​ໂລ​ຊີ​ຫຼື​ຊີ້​ນໍາ​ພວກ​ເຮົາ, ພວກ​ເຮົາ​ຕ້ອງ​ມີ​ຄວາມ​ຕັ້ງ​ຫນ້າ​ແລະ​ເປັນ​ເຈົ້າ​ຂອງ​ເຕັກ​ໂນ​ໂລ​ຊີ.

ຫວຽດນາມຄວນເຮັດແນວໃດເພື່ອຫຼີກລ້ຽງຄວາມສ່ຽງທີ່ຈະກາຍເປັນຊັບພະຍາກອນລາຄາຖືກ? - 2

ສາດສະດາຈານ Toby Walsh ແບ່ງປັນໃນອາທິດວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ VinFuture (ພາບ: ຄະນະຈັດຕັ້ງ).

ສອງ, ພວກ​ເຮົາ​ຕ້ອງ​ສະ​ໜັບ​ສະ​ໜູນ​ຢ່າງ​ແຮງ​ກ່ຽວ​ກັບ​ບັນ​ດາ​ເວ​ທີ​ສື່​ສັງ​ຄົມ​ເພື່ອ​ສ້າງ​ສະ​ພາບ​ແວດ​ລ້ອມ​ທີ່​ປອດ​ໄພ​ໃຫ້​ຜູ້​ໃຊ້​ຢູ່​ຫວຽດ​ນາມ, ທັງ​ບໍ່​ໄດ້​ກະ​ທົບ​ເຖິງ​ປະ​ຊາ​ທິ​ປະ​ໄຕ​ຂອງ​ປະ​ເທດ.

ໃນຄວາມເປັນຈິງ, ມີຕົວຢ່າງຈໍານວນຫລາຍກ່ຽວກັບວິທີການສື່ມວນຊົນສັງຄົມມີອິດທິພົນຕໍ່ຜົນການເລືອກຕັ້ງ, ປະເທດທີ່ແບ່ງອອກ, ແລະແມ້ກະທັ້ງການກະຕຸ້ນການກໍ່ການຮ້າຍ.

ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາ 40 ປີເຮັດວຽກກ່ຽວກັບປັນຍາປະດິດ. ສໍາລັບ 30 ປີທໍາອິດ, ຂ້ອຍກັງວົນກ່ຽວກັບວິທີເຮັດໃຫ້ AI ມີອໍານາດຫຼາຍຂຶ້ນ. ໃນ 10 ປີທີ່ຜ່ານມາ, ຂ້ອຍມີຄວາມສົນໃຈແລະເວົ້າຫຼາຍຂື້ນກ່ຽວກັບການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ.

ທ່ານ​ສາມາດ​ໃຫ້​ຄຳ​ແນະນຳ​ບາງ​ຢ່າງ​ໄດ້​ໃນ​ຂະນະ​ທີ່ ຫວຽດນາມ ພວມ​ດຳ​ເນີນ​ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ປະດິດ?

- ມີຫຼາຍກໍລະນີທີ່ກົດໝາຍໃໝ່ບໍ່ຈຳເປັນ. ພວກເຮົາມີກົດໝາຍວ່າດ້ວຍຄວາມເປັນສ່ວນຕົວແລ້ວ, ພວກເຮົາມີກົດໝາຍວ່າດ້ວຍການແຂ່ງຂັນ. ກົດຫມາຍທີ່ມີຢູ່ແລ້ວເຫຼົ່ານີ້ນໍາໃຊ້ກັບພື້ນທີ່ດິຈິຕອນ, ຄືກັນກັບພວກເຂົານໍາໃຊ້ກັບໂລກທາງດ້ານຮ່າງກາຍ.

ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະບັງຄັບໃຊ້ກົດຫມາຍເຫຼົ່ານີ້ຢ່າງເຂັ້ມງວດໃນສະພາບແວດລ້ອມດິຈິຕອນດັ່ງທີ່ພວກເຮົາເຮັດໃນສະພາບແວດລ້ອມທາງດ້ານຮ່າງກາຍ.

ຢ່າງໃດກໍ່ຕາມ, ມີຄວາມສ່ຽງໃຫມ່ບາງຢ່າງທີ່ເກີດຂື້ນແລະພວກເຮົາກໍາລັງເລີ່ມເຫັນວ່າ. ປະຊາຊົນເລີ່ມສ້າງຄວາມສໍາພັນກັບ AI, ໃຊ້ AI ເປັນຜູ້ປິ່ນປົວແລະບາງຄັ້ງມັນກໍ່ເຮັດໃຫ້ເກີດອັນຕະລາຍຕໍ່ຜູ້ໃຊ້, ດັ່ງນັ້ນພວກເຮົາຈໍາເປັນຕ້ອງລະມັດລະວັງ.

ພວກເຮົາສະເຫມີໃຫ້ຜູ້ຜະລິດຮັບຜິດຊອບໃນເວລາທີ່ພວກເຂົາປ່ອຍຜະລິດຕະພັນ. ຕົວຢ່າງ, ຖ້າບໍລິສັດ AI ປ່ອຍຜະລິດຕະພັນ AI ທີ່ເປັນອັນຕະລາຍຕໍ່ມະນຸດ, ພວກເຂົາກໍ່ຄວນຈະຮັບຜິດຊອບເຊັ່ນກັນ.

ດັ່ງນັ້ນພວກເຮົາຈະປ້ອງກັນບໍ່ໃຫ້ AI ເຮັດໃຫ້ເກີດຜົນກະທົບທີ່ເປັນອັນຕະລາຍຕໍ່ເດັກນ້ອຍໄດ້ແນວໃດແລະສ້າງສະພາບແວດລ້ອມທີ່ປອດໄພສໍາລັບເດັກນ້ອຍທຸກຄັ້ງທີ່ AI ປາກົດ, ທ່ານ?

- ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາບໍ່ໄດ້ຮຽນຮູ້ຫຼາຍບົດຮຽນຈາກສື່ມວນຊົນສັງຄົມ. ປະຈຸບັນຫຼາຍປະເທດເລີ່ມຮັບຮູ້ແລ້ວວ່າສື່ສັງຄົມມີຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ ແຕ່ຍັງມີຂໍ້ເສຍຫຼາຍຢ່າງ, ໂດຍສະເພາະແມ່ນຜົນກະທົບຕໍ່ສຸຂະພາບຈິດ, ລະດັບຄວາມວິຕົກກັງວົນ ແລະຮູບພາບຮ່າງກາຍຂອງໄວໜຸ່ມ ໂດຍສະເພາະເດັກຍິງ.

ຫຼາຍ​ປະ​ເທດ​ໄດ້​ເລີ່​ມປະຕິບັດ​ມາດ​ຕະການ​ແກ້​ໄຂ​ບັນຫາ​ນີ້​ແລ້ວ. ໃນປະເທດອົດສະຕາລີ, ການຈໍາກັດອາຍຸສໍາລັບການນໍາໃຊ້ສື່ມວນຊົນສັງຄົມຈະມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 10 ເດືອນທັນວາ. ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາຕ້ອງການມາດຕະການທີ່ຄ້າຍຄືກັນສໍາລັບ AI.

ພວກເຮົາກໍາລັງສ້າງເຄື່ອງມືທີ່ສາມາດມີຜົນກະທົບທາງບວກແຕ່ຍັງສາມາດເຮັດໃຫ້ເກີດອັນຕະລາຍ, ແລະພວກເຮົາຈໍາເປັນຕ້ອງປົກປ້ອງຈິດໃຈແລະຫົວໃຈຂອງເດັກນ້ອຍຂອງພວກເຮົາຈາກຜົນກະທົບທາງລົບເຫຼົ່ານີ້.

ນອກຈາກນັ້ນ, ຂ້າພະເຈົ້າຫວັງວ່າປະເທດຕ່າງໆຍັງຈະອອກກົດລະບຽບທີ່ເຂັ້ມງວດໃນການຄຸ້ມຄອງເຄືອຂ່າຍສັງຄົມ, ດັ່ງນັ້ນການສ້າງສະພາບແວດລ້ອມທີ່ປອດໄພແທ້ໆສໍາລັບທຸກຄົນໃນເວລາທີ່ໃຊ້ AI.

ໃນຄວາມເປັນຈິງ, ບໍ່ພຽງແຕ່ເດັກນ້ອຍເທົ່ານັ້ນ, ແຕ່ຜູ້ໃຫຍ່ຍັງປະເຊີນກັບຄວາມສ່ຽງທີ່ເກີດຈາກ AI ເອງ. ດັ່ງນັ້ນປະຊາຊົນຈະໃຊ້ AI ເພື່ອປັບປຸງຊີວິດຂອງເຂົາເຈົ້າແນວໃດແລະບໍ່ເປັນອັນຕະລາຍ?

- AI ຖືກ​ນໍາ​ໃຊ້​ໃນ​ຫຼາຍ​ຂົງ​ເຂດ​, ຊ່ວຍ​ປັບ​ປຸງ​ຄຸນ​ນະ​ພາບ​ຂອງ​ຊີ​ວິດ​ຂອງ​ພວກ​ເຮົາ​. ໃນຢາປົວພະຍາດ, AI ຊ່ວຍໃຫ້ຄົ້ນພົບຢາໃຫມ່. ໃນ ການສຶກສາ , AI ຍັງນໍາເອົາຜົນປະໂຫຍດໃນທາງບວກຫຼາຍຢ່າງ.

ຢ່າງໃດກໍ່ຕາມ, ການເຂົ້າເຖິງ AI ໂດຍບໍ່ມີການປົກປ້ອງທີ່ພຽງພໍແມ່ນມີຄວາມສ່ຽງເກີນໄປ. ພວກເຮົາໄດ້ເຫັນການຟ້ອງຮ້ອງໃນສະຫະລັດທີ່ພໍ່ແມ່ຟ້ອງບໍລິສັດເຕັກໂນໂລຢີທີ່ຂັບລົດລູກຂອງເຂົາເຈົ້າຂ້າຕົວຕາຍຫຼັງຈາກພົວພັນກັບ AI chatbots.

ເຖິງແມ່ນວ່າອັດຕາສ່ວນຂອງຜູ້ໃຊ້ ChatGPT ທີ່ປະສົບບັນຫາສຸຂະພາບຈິດແມ່ນພຽງແຕ່ສອງສາມເປີເຊັນ, ມີຜູ້ໃຊ້ຫຼາຍຮ້ອຍລ້ານຄົນ, ຕົວເລກຕົວຈິງແມ່ນຢູ່ໃນຫຼາຍຮ້ອຍພັນຄົນ.

ຂໍ້ມູນມີຄວາມສໍາຄັນຫຼາຍສໍາລັບການພັດທະນາ AI, ແຕ່ຈາກທັດສະນະຂອງການຄຸ້ມຄອງ, ຖ້າການຈັດການຂໍ້ມູນເຄັ່ງຄັດເກີນໄປ, ມັນຈະຂັດຂວາງການພັດທະນາຂອງ AI. ໃນຄວາມຄິດເຫັນຂອງເຈົ້າ, ອັນຕະລາຍອັນໃດທີ່ສາມາດເຮັດໃຫ້ການຈັດການຂໍ້ມູນວ່າງລົງ? ວິທີການດຸ່ນດ່ຽງການເກັບກໍາຂໍ້ມູນ, ການຄຸ້ມຄອງຂໍ້ມູນທີ່ປອດໄພກັບການສ້າງການພັດທະນາສໍາລັບ AI?

- ຂ້າພະເຈົ້າຕົກລົງເຫັນດີຢ່າງແທ້ຈິງ. ຂໍ້ມູນແມ່ນຈຸດໃຈກາງຂອງຄວາມຄືບໜ້າຂອງ AI , ເພາະວ່າມັນເປັນຂໍ້ມູນທີ່ຂັບເຄື່ອນມັນ. ຖ້າບໍ່ມີຂໍ້ມູນ, ພວກເຮົາຈະບໍ່ມີຄວາມຄືບຫນ້າໃດໆ. ຂໍ້ມູນທີ່ມີຄຸນນະພາບສູງແມ່ນເປັນຫຼັກຂອງທຸກສິ່ງທີ່ພວກເຮົາເຮັດ. ໃນຄວາມເປັນຈິງ, ມູນຄ່າການຄ້າແລະຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນທີ່ບໍລິສັດໄດ້ຮັບມາຈາກຂໍ້ມູນ. ບໍ່ວ່າພວກເຮົາມີຂໍ້ມູນທີ່ມີຄຸນນະພາບຫຼືບໍ່, ນັ້ນແມ່ນບັນຫາສໍາຄັນ.

ມັນເປັນຄວາມໂກດແຄ້ນທີ່ຈະເຫັນຫນັງສືຂອງນັກຂຽນທົ່ວໂລກ - ລວມທັງຂອງຂ້ອຍ - ຖືກໃຊ້ໂດຍບໍ່ມີການອະນຸຍາດແລະບໍ່ມີການຊົດເຊີຍ. ມັນ​ເປັນ​ການ​ລັກ​ເອົາ​ຜົນ​ຂອງ​ແຮງ​ງານ​ຂອງ​ຄົນ​ອື່ນ. ຖ້າສະຖານະການນີ້ຍັງສືບຕໍ່, ຜູ້ຂຽນຈະສູນເສຍແຮງຈູງໃຈໃນການຂຽນຫນັງສື, ແລະພວກເຮົາຈະສູນເສຍຄຸນຄ່າວັດທະນະທໍາທີ່ພວກເຮົາຮັກແພງ.

ພວກເຮົາຈໍາເປັນຕ້ອງຊອກຫາການແກ້ໄຂທີ່ມີຄວາມສະເຫມີພາບຫຼາຍກ່ວາສິ່ງທີ່ພວກເຮົາມີໃນປັດຈຸບັນ.

ໃນປັດຈຸບັນ, "Silicon Valley" ໃຊ້ເວລາເນື້ອຫາແລະຄວາມຄິດສ້າງສັນຈາກຜູ້ຂຽນໂດຍບໍ່ມີການຈ່າຍຄ່າມັນ - ນີ້ແມ່ນບໍ່ຍືນຍົງ. ຂ້າພະເຈົ້າປຽບທຽບສະຖານະການໃນປະຈຸບັນກັບ Napster ແລະຍຸກທໍາອິດຂອງດົນຕີອອນໄລນ໌ໃນຊຸມປີ 2000. ໃນເວລານັ້ນ, ດົນຕີອອນໄລນ໌ທັງຫມົດແມ່ນ "ຖືກລັກ", ແຕ່ວ່າມັນບໍ່ສາມາດຄົງຢູ່ຕະຫຼອດໄປ, ເພາະວ່ານັກດົນຕີຕ້ອງການລາຍໄດ້ເພື່ອສືບຕໍ່ສ້າງ.

ສຸດທ້າຍ, ພວກເຮົາມີລະບົບການຖ່າຍທອດແບບເສຍເງິນ , ເຊັ່ນ Spotify ຫຼື Apple Music, ຫຼືດົນຕີທີ່ມີການໂຄສະນາ, ເຊິ່ງສ່ວນຫນຶ່ງຂອງລາຍຮັບຈະກັບຄືນໄປຫາສິນລະປິນ. ພວກເຮົາຈໍາເປັນຕ້ອງເຮັດເຊັ່ນດຽວກັນກັບປຶ້ມ, ເພື່ອໃຫ້ຜູ້ຂຽນໄດ້ຮັບມູນຄ່າຈາກຂໍ້ມູນຂອງພວກເຂົາ. ຖ້າ​ບໍ່​ດັ່ງ​ນັ້ນ, ຈະ​ບໍ່​ມີ​ຜູ້​ໃດ​ຖືກ​ກະ​ຕຸ້ນ​ໃຫ້​ຂຽນ​ປຶ້ມ, ແລະ​ໂລກ​ຈະ​ຮ້າຍ​ແຮງ​ກວ່າ​ຖ້າ​ບໍ່​ມີ​ປຶ້ມ​ໃໝ່​ຖືກ​ຂຽນ.

ຫວຽດນາມຄວນເຮັດແນວໃດເພື່ອຫຼີກລ້ຽງຄວາມສ່ຽງທີ່ຈະກາຍເປັນຊັບພະຍາກອນລາຄາຖືກ? - 3

​ໃນ​ຂອບ​ເຂດ​ສັບປະດາ​ວິ​ທະ​ຍາ​ສາດ ​ແລະ ​ເຕັກ​ໂນ​ໂລ​ຢີ VinFuture, ງານ​ວາງສະ​ແດງ “Toa V - ຈຸດ​ສຳ​ພັດ​ວິທະຍາສາດ” ຍັງ​ຈະ​ດຳ​ເນີນ​ຢູ່​ສູນ​ສິລະ​ປະ​ຮ່ວມ​ເມືອງ Vincom Royal (ຮູບ​ພາບ: ຄະນະ​ຈັດ​ຕັ້ງ).

AI ມີ​ການ​ພັດ​ທະ​ນາ​ຫຼາຍ​ຢູ່​ຫວຽດ​ນາມ. ​ໃນ​ໄລຍະ​ມໍ່ໆ​ມາ​ນີ້, ຫວຽດນາມ​ມີ​ຫຼາຍ​ນະ​ໂຍບາຍ​ຊຸກຍູ້​ການ​ພັດທະນາ AI, ​ແຕ່​ຫວຽດນາມ​ຍັງ​ປະສົບ​ກັບ​ບັນຫາ, ​ແມ່ນ​ການ​ສໍ້​ໂກງ​ຍ້ອນ AI. ດັ່ງ​ນັ້ນ, ຕາມ​ທ່ານ​ສາດສະດາຈານ​ແລ້ວ, ຫວຽດນາມ ຄວນ​ຮັບ​ມື​ກັບ​ສະພາບ​ການ​ນີ້​ແນວ​ໃດ? ຄໍາແນະນໍາຂອງອາຈານສໍາລັບຜູ້ທີ່ໃຊ້ AI ໃນມື້ນີ້ເພື່ອຮັບປະກັນຄວາມປອດໄພແລະປົກປ້ອງຂໍ້ມູນຂອງພວກເຂົາແມ່ນຫຍັງ?

- ສໍາລັບແຕ່ລະຄົນ, ຂ້າພະເຈົ້າຄິດວ່າວິທີທີ່ງ່າຍທີ່ສຸດແມ່ນການກວດສອບຂໍ້ມູນ. ຕົວຢ່າງ, ເມື່ອໄດ້ຮັບໂທລະສັບຫຼືອີເມລ໌, ຕົວຢ່າງຈາກທະນາຄານ, ພວກເຮົາຈໍາເປັນຕ້ອງກວດເບິ່ງອີກເທື່ອຫນຶ່ງ: ພວກເຮົາສາມາດໂທຫາເບີຈອງນັ້ນຄືນຫຼືຕິດຕໍ່ທະນາຄານໂດຍກົງເພື່ອກວດສອບຂໍ້ມູນ.

ມີຫຼາຍອີເມວປອມ, ເບີໂທລະສັບປອມ, ແມ່ນແຕ່ການໂທ Zoom ປອມໃນທຸກມື້ນີ້. ການຫລອກລວງເຫຼົ່ານີ້ແມ່ນງ່າຍດາຍ, ລາຄາບໍ່ແພງ, ແລະບໍ່ໃຊ້ເວລາຫຼາຍ.

ໃນຄອບຄົວຂອງຂ້ອຍ, ພວກເຮົາຍັງມີມາດຕະການຄວາມປອດໄພຂອງຕົນເອງ: "ຄໍາຖາມລັບ" ທີ່ມີພຽງແຕ່ສະມາຊິກໃນຄອບຄົວຮູ້, ເຊັ່ນ: ຊື່ຂອງກະຕ່າຍສັດລ້ຽງຂອງພວກເຮົາ. ນີ້ຮັບປະກັນວ່າຂໍ້ມູນທີ່ສໍາຄັນຢູ່ໃນຄອບຄົວແລະຈະບໍ່ຮົ່ວໄຫລອອກ.

ຫວຽດນາມ​ຍັງ​ໄດ້​ລວມເອົາ​ການ​ສຶກສາ AI ​ເຂົ້າ​ໃນ​ການ​ສຶກສາ​ທົ່ວ​ໄປ, ດັ່ງ​ນັ້ນ​ຄວນ​ສັງເກດ​ຫຍັງ​ແດ່​ໃນ​ຂະ​ບວນການ​ນັ້ນ?

- AI ປ່ຽນແປງສິ່ງທີ່ສອນແລະວິທີການສອນ. ມັນມີຜົນກະທົບຕໍ່ທັກສະທີ່ສໍາຄັນຂອງອະນາຄົດ, ເຊັ່ນ: ການຄິດທີ່ສໍາຄັນ, ທັກສະການສື່ສານ, ສະຕິປັນຍາທາງສັງຄົມແລະຄວາມສະຫລາດທາງດ້ານຈິດໃຈ. ທັກສະເຫຼົ່ານີ້ຈະກາຍເປັນສິ່ງຈໍາເປັນ.

AI ສາມາດຊ່ວຍເຫຼືອໃນການສອນທັກສະເຫຼົ່ານີ້, ຕົວຢ່າງເຊັ່ນຄູສອນສ່ວນບຸກຄົນ, ຜູ້ຊ່ວຍການສຶກສາສ່ວນບຸກຄົນ, ສະຫນອງເຄື່ອງມືການສຶກສາທີ່ມີປະສິດທິພາບຫຼາຍໂດຍຜ່ານຄໍາຮ້ອງສະຫມັກ AI.

ຂໍ​ຂອບ​ໃຈ​ທ່ານ​ອາ​ຈານ​ສໍາ​ລັບ​ການ​ໃຊ້​ເວ​ລາ​ສໍາ​ລັບ​ການ​ສົນ​ທະ​ນາ​ຂອງ​ພວກ​ເຮົາ​!

ທີ່ມາ: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm


(0)

ວິຫານ Notre Dame ຢູ່ນະຄອນ ໂຮ່ຈີມິນ ໄດ້ສະຫວ່າງສະໄຫວເພື່ອຕ້ອນຮັບບຸນຄຣິສມາສ 2025
ເດັກຍິງຮ່າໂນ້ຍ "ແຕ່ງຕົວ" ທີ່ສວຍງາມສໍາລັບລະດູການວັນຄຣິດສະມາດ
ຫລັງ​ຈາກ​ລົມ​ພາຍຸ​ແລະ​ນ້ຳ​ຖ້ວມ, ໝູ່​ບ້ານ Tet chrysanthemum ​ເມືອງ Gia Lai ຫວັງ​ວ່າ​ຈະ​ບໍ່​ມີ​ໄຟຟ້າ​ໃຊ້​ເພື່ອ​ຊ່ວຍ​ປະ​ຢັດ​ໂຮງງານ.
ນະຄອນຫຼວງຂອງຕົ້ນຫມາກໂປມສີເຫຼືອງໃນພາກກາງໄດ້ຮັບຄວາມເສຍຫາຍຢ່າງຫນັກຫຼັງຈາກໄພພິບັດທໍາມະຊາດສອງເທົ່າ

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

ຮ້ານກາເຟ ດາລາດ ເຫັນວ່າມີລູກຄ້າເພີ່ມຂຶ້ນ 300% ຍ້ອນວ່າ ເຈົ້າຂອງຫຼິ້ນລະຄອນ 'ລະຄອນສິລະປະການຕໍ່ສູ້'

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ