Vietnam.vn - Nền tảng quảng bá Việt Nam

ຈັນຍາບັນຂອງພະນັກງານສື່ມວນຊົນເມື່ອນໍາໃຊ້ເຕັກໂນໂລຢີ AI

Báo Quốc TếBáo Quốc Tế27/10/2024

ພວກເຮົາກໍາລັງດໍາລົງຊີວິດຢູ່ໃນຍຸກຂອງການປະຕິວັດອຸດສາຫະກໍາ 4.0, ບ່ອນທີ່ປັນຍາປະດິດ (AI) ຄ່ອຍໆກາຍເປັນສ່ວນຫນຶ່ງທີ່ຂາດບໍ່ໄດ້ຂອງຫຼາຍຂົງເຂດຂອງຊີວິດສັງຄົມ. ສື່ມວນຊົນ, ເປັນຂົວຕໍ່ຂໍ້ມູນຂ່າວສານລະຫວ່າງປະຊາຊົນແລະເຫດການ, ບໍ່ສາມາດຢູ່ນອກແນວໂນ້ມນັ້ນ.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
ທ່ານ​ນາງ ຫງວຽນ​ທິ​ຫາຍ​ວັນ, ຜູ້​ອຳ​ນວຍ​ການ​ສູນ​ຝຶກ​ອົບ​ຮົມ​ນັກ​ຂ່າວ, ສະ​ມາ​ຄົມ​ນັກ​ຂ່າວ​ຫວຽດ​ນາມ ທີ່​ກອງ​ປະ​ຊຸມ​ສຳ​ມະ​ນາ​ເຕັກ​ໂນ​ໂລ​ຊີ AI. (ທີ່ມາ: ສະມາຄົມນັກຂ່າວຫວຽດນາມ)

ເພື່ອສ້າງປະໂຫຍດສູງສຸດທີ່ AI ເອົາມາໃຫ້, ຜູ້ສື່ສານຈໍາເປັນຕ້ອງມີຄວາມຮູ້ຄວາມສາມາດຂອງຕົນເອງເພື່ອນໍາໃຊ້ AI ໃຫ້ມີປະສິດຕິຜົນ, ໃນຂະນະທີ່ຮັບປະກັນຄວາມຫນ້າເຊື່ອຖືແລະຈັນຍາບັນໃນການສົ່ງຂໍ້ມູນ.

ຈາກ "ຄວາມຮ້ອນ" ຂອງ AI

ມັນເປັນທີ່ຊັດເຈນແທ້ໆວ່າ AI (Artificial Intelligence) ແມ່ນຫນຶ່ງໃນຄໍາທີ່ຮ້ອນທີ່ສຸດໃນມື້ນີ້. ໃນເດືອນກັນຍາ 2024, ການຄົ້ນຫາໃນ Google Search ສໍາລັບຄໍາສໍາຄັນ "AI" ໃນ 0.3 ວິນາທີບັນທຶກ 15 ຕື້ 900 ລ້ານຜົນໄດ້ຮັບ; ດ້ວຍຄໍາສໍາຄັນ "ເຄື່ອງມື AI", ໃນ 0.4 ວິນາທີບັນທຶກຫຼາຍກວ່າ 3 ຕື້ 400 ລ້ານຜົນໄດ້ຮັບ. ຕົວເລກຈໍານວນຫຼວງຫຼາຍເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງການຄຸ້ມຄອງແລະຄວາມສົນໃຈໃນ AI ແລະເຄື່ອງມືທີ່ອີງໃສ່ AI ທົ່ວໂລກ.

ໃນປັດຈຸບັນ, ມີເຄື່ອງມື AI ເພີ່ມຂຶ້ນເລື້ອຍໆສໍາລັບຂົງເຂດຕ່າງໆ, ລວມທັງອຸດສາຫະກໍາສື່ມວນຊົນ. ນອກຈາກ ChatGPT ທີ່ຮູ້ຈັກກັນຢ່າງກວ້າງຂວາງ, ຍັງມີແອັບພລິເຄຊັນ AI ຫຼາຍຢ່າງທີ່ພັດທະນາໃນທິດທາງພິເສດ, ຮັບໃຊ້ວຽກງານພິເສດ. ມັນບໍ່ຍາກທີ່ຈະລາຍຊື່ເຄື່ອງມືຈໍານວນຫຼາຍຢູ່ທີ່ນີ້, ຕົວຢ່າງ: Bing AI, Clause, Zapier Central ສໍາລັບກຸ່ມວຽກ Chatbot; Jasper, Copy.ai, Anyword ສໍາລັບວຽກງານສ້າງເນື້ອຫາ; Descript, Wondershare, Runway ສໍາລັບການຜະລິດ ວິດີໂອ ແລະວຽກງານການແກ້ໄຂ; DALL-E3, Midjourney, Stable Diffusion ສໍາລັບວຽກງານການສ້າງຮູບພາບ; Murf, AIVA ສໍາລັບວຽກງານເນື້ອໃນສຽງ, ແລະອື່ນໆແລະບໍ່ດົນມານີ້, Amazon ຍັກໃຫຍ່ຍັງໄດ້ນໍາສະເຫນີເຄື່ອງມື AI ທີ່ພວກເຂົາພັດທະນາ, Video Generator ແລະສ້າງຮູບພາບ, ໂດຍມີຈຸດປະສົງ "ສ້າງແຮງບັນດານໃຈສ້າງສັນແລະນໍາເອົາມູນຄ່າຫຼາຍຂຶ້ນ".

ເຖິງແມ່ນວ່າເຄື່ອງມື AI ມີຄວາມຫຼາກຫຼາຍຫຼາຍໃນຂະຫນາດຫຼືລະດັບຂອງຄວາມຊ່ຽວຊານ, ໂດຍເນື້ອແທ້ແລ້ວເຕັກໂນໂລຊີມີສອງສິ່ງທົ່ວໄປ: ເຄື່ອງມື AI ໄດ້ຖືກພັດທະນາໂດຍອີງໃສ່ algorithms ແລະຂໍ້ມູນເພື່ອ "ຝຶກອົບຮົມ" ເຄື່ອງມື AI.

ການຄວບຄຸມດ້ານຈັນຍາບັນຂອງການນໍາໃຊ້ AI ໃນສື່

ບໍ່ມີການປະຕິເສດຄວາມສະດວກສະບາຍທີ່ເຄື່ອງມື AI ເອົາມາໃຫ້ ແລະດ້ວຍຄວາມໄວຂອງການປັບປຸງເຕັກໂນໂລຢີຢ່າງໄວວາ, ຈະມີເຄື່ອງມື AI ທີ່ມີຄວາມຊໍານິຊໍານານຫຼາຍຂຶ້ນໃນທຸກໆມຸມ, ຕອບສະຫນອງຕໍ່ຫນ້າວຽກຈາກງ່າຍດາຍໄປຫາສະລັບສັບຊ້ອນໃນອຸດສາຫະກໍາສື່ມວນຊົນ. ຄຽງຄູ່ກັບການພັດທະນາອັນລົ້ນເຫຼືອນີ້, ຄໍາຖາມຈໍານວນຫຼາຍເກີດຂື້ນກ່ຽວກັບບັນຫາການຄວບຄຸມດ້ານຈັນຍາບັນໃນການພັດທະນາແລະການນໍາໃຊ້ເຄື່ອງມື AI ໃນອຸດສາຫະກໍາສື່ມວນຊົນ? ຈະເກີດຫຍັງຂຶ້ນຖ້າ algorithms ແລະຂໍ້ມູນຂອງເຄື່ອງມື AI ນັ້ນຖືກໝູນໃຊ້ໃນທາງທີ່ເປັນອັນຕະລາຍຕໍ່ຊຸມຊົນ? ໃຜເປັນຜູ້ຮັບປະກັນສິດທິຊັບສິນທາງປັນຍາສໍາລັບການປ້ອນຂໍ້ມູນທີ່ເຄື່ອງມື AI ນໍາໃຊ້ສໍາລັບການຝຶກອົບຮົມ? ໃຜປະເມີນລະດັບອັນຕະລາຍທີ່ພວກເຂົາເຮັດໃຫ້ເກີດ?

ມີຄວາມບໍ່ສະເຫມີພາບລະຫວ່າງກຸ່ມຄົນທີ່ເຂົ້າເຖິງເຄື່ອງມື AI ແລະກຸ່ມທີ່ບໍ່ສາມາດເຂົ້າເຖິງພວກເຂົາໃນວຽກງານດຽວກັນບໍ? ຍັງມີຄໍາຖາມທີ່ຍົກຂຶ້ນມາກ່ຽວກັບລະດັບອັນຕະລາຍທີ່ບໍ່ສາມາດຄວບຄຸມໄດ້ຈາກເຄື່ອງມື AI, ໂດຍສະເພາະໃນເຂດທີ່ມີຄວາມອ່ອນໄຫວທີ່ສາມາດສົ່ງຜົນກະທົບຕໍ່ປະຊາຊົນຈໍານວນຫຼາຍໃນຂະຫນາດໃຫຍ່ເຊັ່ນ: ສື່ແລະເຄືອຂ່າຍສັງຄົມ.

ການຮັບຮູ້ຄວາມກັງວົນຂ້າງເທິງ, ຫຼາຍອົງການຈັດຕັ້ງ, ສະມາຄົມ, ລັດຖະບານແລະແມ້ກະທັ້ງບໍລິສັດແລະບໍລິສັດທີ່ພັດທະນາເຄື່ອງມື AI ໄດ້ອອກຄໍາແນະນໍາ, ຄໍາອະທິບາຍ, ແລະແມ້ກະທັ້ງ Codes of Conduct ທີ່ກ່ຽວຂ້ອງກັບບັນຫາການຄວບຄຸມດ້ານຈັນຍາບັນໃນເຕັກໂນໂລຢີ AI. ຮັບຮອງເອົາໂດຍ 193 ປະເທດໃນປີ 2021, ຖະແຫຼງການກ່ຽວກັບຈັນຍາບັນຂອງປັນຍາປະດິດ - ຄໍາແນະນໍາຂອງອົງການ UNESCO - ອົງການ ການສຶກສາ , ວິທະຍາສາດແລະວັດທະນະທໍາຂອງສະຫະປະຊາຊາດ, ລະບຸຢ່າງຊັດເຈນວ່າ "ການເພີ່ມຂຶ້ນຢ່າງໄວວາຂອງປັນຍາປະດິດ (AI) ໄດ້ສ້າງໂອກາດຫຼາຍທົ່ວໂລກ, ຈາກການຊ່ວຍເຫຼືອວຽກງານການວິນິດໄສສຸຂະພາບອັດຕະໂນມັດກັບມະນຸດໂດຍຜ່ານສື່ຕ່າງໆ.

ຢ່າງໃດກໍ່ຕາມ, ການປ່ຽນແປງຢ່າງໄວວາເຫຼົ່ານີ້ຍັງເຮັດໃຫ້ເກີດຄວາມກັງວົນດ້ານຈັນຍາບັນທີ່ເລິກເຊິ່ງ. ຄວາມສ່ຽງດັ່ງກ່າວທີ່ກ່ຽວຂ້ອງກັບ AI ໄດ້ເລີ່ມຕົ້ນລວມຄວາມບໍ່ສະເຫມີພາບທີ່ມີຢູ່ແລ້ວ, ນໍາໄປສູ່ຄວາມເສຍຫາຍຕໍ່ກຸ່ມທີ່ດ້ອຍໂອກາດແລ້ວ…”. ແລະຈາກນັ້ນ "ຮຽກຮ້ອງໃຫ້ອົງການ UNESCO ພັດທະນາເຄື່ອງມືເພື່ອສະຫນັບສະຫນູນປະເທດສະມາຊິກ, ລວມທັງວິທີການປະເມີນຄວາມພ້ອມ, ເຄື່ອງມືສໍາລັບລັດຖະບານເພື່ອສ້າງຮູບພາບທີ່ສົມບູນແບບຂອງຄວາມພ້ອມທີ່ຈະປະຕິບັດ AI ຢ່າງມີຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບສໍາລັບພົນລະເມືອງຂອງພວກເຂົາທັງຫມົດ.

ໃນວິທີການທົ່ວໂລກຂອງຕົນ, UNESCO ໄດ້ເປີດຕົວ Global AI Ethics and Governance Observatory, ເຊິ່ງມັນກ່າວວ່າ "ໃຫ້ຂໍ້ມູນກ່ຽວກັບຄວາມພ້ອມຂອງບັນດາປະເທດທີ່ຈະຮັບຮອງເອົາ AI ດ້ານຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບ. ມັນຍັງເປັນເຈົ້າພາບຫ້ອງທົດລອງຈັນຍາບັນ AI, ເຊິ່ງລວມເອົາການປະກອບສ່ວນ, ການຄົ້ນຄວ້າທີ່ມີຜົນກະທົບ, ເຄື່ອງມື, ແລະການປະຕິບັດໃນທາງບວກກ່ຽວກັບຄວາມຫລາກຫລາຍຂອງ AI ...

ນອກເຫນືອຈາກອົງການຈັດຕັ້ງທົ່ວໂລກເຊັ່ນ UNESCO, ສະມາຄົມວິຊາຊີບຈໍານວນຫຼາຍຍັງເຮັດວຽກເພື່ອພັດທະນາມາດຕະຖານຂອງຕົນເອງ, ຕົວຢ່າງເຊັ່ນ IABC - International Association of Business Communications, ສະມາຄົມທີ່ມີສະມາຊິກຫລາຍພັນຄົນຈາກທົ່ວໂລກ, ໄດ້ສ້າງຊຸດຂອງຫຼັກການແນະນໍາການນໍາໃຊ້ຈັນຍາບັນຂອງ AI ໂດຍຜູ້ຊ່ຽວຊານດ້ານການສື່ສານ, ເຊິ່ງມີຈຸດປະສົງເພື່ອແນະນໍາສະມາຊິກ IABC ກ່ຽວກັບຄວາມກ່ຽວຂ້ອງຂອງ IABC Code of the Eth. ຂໍ້ແນະນຳເຫຼົ່ານີ້ອາດຈະໄດ້ຮັບການປັບປຸງ ແລະ ເພີ່ມເຕີມຕາມການເວລາ ຄຽງຄູ່ກັບການພັດທະນາເຕັກໂນໂລຊີ AI. ໃນຫຼັກການນີ້, ມີຫຼາຍຈຸດສະເພາະທີ່ຜູ້ຊ່ຽວຊານດ້ານການສື່ສານຄວນປະຕິບັດຕາມເຊັ່ນ:

"ຊັບພະຍາກອນ AI ທີ່ໃຊ້ຕ້ອງມີການຂັບເຄື່ອນຂອງມະນຸດເພື່ອສ້າງປະສົບການໃນທາງບວກແລະໂປ່ງໃສທີ່ສົ່ງເສີມຄວາມເຄົາລົບແລະສ້າງຄວາມໄວ້ວາງໃຈໃນອາຊີບສື່ມວນຊົນ. ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຕິດຕາມໂອກາດທາງວິຊາຊີບແລະຄວາມສ່ຽງທີ່ເຄື່ອງມື AI ນໍາສະເຫນີ. ຂໍ້ມູນຕ້ອງໄດ້ຮັບການສື່ສານຢ່າງຖືກຕ້ອງ, ຈຸດປະສົງ, ແລະຍຸຕິທໍາ. ເຄື່ອງມື AI ສາມາດມີຄວາມຜິດພາດຫຼາຍ, ຄວາມບໍ່ສອດຄ່ອງ, ແລະບັນຫາດ້ານວິຊາການອື່ນໆ. ນີ້ຮຽກຮ້ອງໃຫ້ມີການພິຈາລະນາຂອງມະນຸດຢ່າງເປັນເອກະລາດ AI ທີ່ຖືກຕ້ອງ. ໂປ່ງໃສ, ແລະຖືກລັກລອບ.

ປົກປ້ອງຂໍ້ມູນສ່ວນຕົວ ແລະ/ຫຼືຂໍ້ມູນລັບຂອງຄົນອື່ນ ແລະຈະບໍ່ໃຊ້ມັນໂດຍບໍ່ມີການອະນຸຍາດຈາກເຂົາເຈົ້າ. ປະເມີນຜົນໄດ້ຮັບ AI ຂອງມັນໂດຍອີງໃສ່ການມີສ່ວນຮ່ວມຂອງມະນຸດແລະຄວາມເຂົ້າໃຈຂອງຊຸມຊົນທີ່ມັນມີຈຸດປະສົງເພື່ອຮັບໃຊ້. ລົບລ້າງຄວາມລໍາອຽງໃຫ້ດີທີ່ສຸດຂອງຄວາມສາມາດຂອງຕົນແລະມີຄວາມອ່ອນໄຫວຕໍ່ກັບຄຸນຄ່າວັດທະນະທໍາແລະຄວາມເຊື່ອຂອງຄົນອື່ນ.

ຕ້ອງມີການກວດສອບຄວາມເປັນຈິງຢ່າງເປັນເອກະລາດແລະກວດສອບຜົນໄດ້ຮັບຂອງຕົນເອງດ້ວຍຄວາມເຄັ່ງຄັດດ້ານວິຊາຊີບທີ່ຈໍາເປັນເພື່ອຮັບປະກັນວ່າເອກະສານ, ຂໍ້ມູນ, ຫຼືເອກະສານອ້າງອີງຂອງພາກສ່ວນທີສາມແມ່ນຖືກຕ້ອງ, ມີຄຸນລັກສະນະແລະການກວດສອບທີ່ຈໍາເປັນ, ແລະຖືກອະນຸຍາດຫຼືອະນຸຍາດໃຫ້ນໍາໃຊ້ຢ່າງຖືກຕ້ອງ. ຢ່າພະຍາຍາມປົກປິດຫຼືປອມຕົວການໃຊ້ AI ໃນຜົນຜະລິດທີ່ເປັນມືອາຊີບຂອງພວກເຂົາ. ຮັບຮູ້ລັກສະນະ open-source ຂອງ AI ແລະບັນຫາທີ່ກ່ຽວຂ້ອງກັບຄວາມລັບ, ລວມທັງການປ້ອນຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ເຂົ້າໃຈຜິດ, ຫຼືຫຼອກລວງ.

ສໍາລັບບໍລິສັດແລະບໍລິສັດທີ່ເປັນເຈົ້າຂອງ, ພັດທະນາແລະການຄ້າເຄື່ອງມື AI, ພວກເຂົາແມ່ນຜູ້ທີ່ເຂົ້າໃຈ ins ແລະ outs ຂອງເຄື່ອງມື AI ດີກວ່າຄົນອື່ນ, ພວກເຂົາຮູ້ວິທີພື້ນຖານທີ່ເຄື່ອງມື AI ດໍາເນີນການ, ແລະຂໍ້ມູນຈາກເຄື່ອງມື AI ໄດ້ຮັບການຝຶກອົບຮົມ. ດັ່ງນັ້ນ, ບໍລິສັດເຫຼົ່ານີ້ຍັງຕ້ອງການໃຫ້ຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບຫຼັກການຂອງຈັນຍາບັນໃນການພັດທະນາ AI. ໃນຄວາມເປັນຈິງ, ມີບໍລິສັດທີ່ມີຄວາມສົນໃຈໃນບັນຫານີ້.

Google ມຸ່ງຫມັ້ນທີ່ຈະບໍ່ພັດທະນາເຄື່ອງມື AI ສໍາລັບພື້ນທີ່ທີ່ມີຄວາມສ່ຽງຕໍ່ອັນຕະລາຍຢ່າງຫຼວງຫຼາຍ, ພວກເຮົາຈະດໍາເນີນການພຽງແຕ່ບ່ອນທີ່ພວກເຮົາເຊື່ອວ່າຜົນປະໂຫຍດຫຼາຍກວ່າຄວາມສ່ຽງຢ່າງຫຼວງຫຼາຍແລະລວມເອົາການປົກປ້ອງທີ່ເຫມາະສົມ. ອາວຸດ ຫຼື ເທັກໂນໂລຍີອື່ນໆ ທີ່ມີຈຸດປະສົງຫຼັກ ຫຼື ການນຳໃຊ້ແມ່ນເພື່ອເຮັດໃຫ້ ຫຼື ອຳນວຍຄວາມສະດວກໂດຍກົງຕໍ່ການບາດເຈັບຂອງມະນຸດ. ເຕັກໂນໂລຢີທີ່ເກັບກໍາຫຼືນໍາໃຊ້ຂໍ້ມູນສໍາລັບການເຝົ້າລະວັງທີ່ລະເມີດມາດຕະຖານທີ່ຍອມຮັບຈາກສາກົນ. ເຕັກໂນໂລຢີທີ່ມີຈຸດປະສົງລະເມີດຫຼັກການທີ່ຍອມຮັບໂດຍທົ່ວໄປຂອງກົດຫມາຍສາກົນແລະສິດທິມະນຸດ.

ໃນດ້ານຄວາມປອດໄພແລະຄວາມປອດໄພ, Google ສັນຍາວ່າ: "ພວກເຮົາຈະສືບຕໍ່ພັດທະນາແລະປະຕິບັດມາດຕະການຄວາມປອດໄພແລະຄວາມປອດໄພທີ່ເຂັ້ມແຂງເພື່ອຫຼີກເວັ້ນການຜົນໄດ້ຮັບທີ່ບໍ່ໄດ້ຕັ້ງໃຈທີ່ຈະສ້າງຄວາມສ່ຽງຕໍ່ອັນຕະລາຍ. ພວກເຮົາຈະອອກແບບລະບົບ AI ຂອງພວກເຮົາໃຫ້ມີຄວາມລະມັດລະວັງທີ່ເຫມາະສົມແລະຊອກຫາວິທີທີ່ຈະພັດທະນາໃຫ້ເຂົາເຈົ້າສອດຄ່ອງກັບການປະຕິບັດທີ່ດີທີ່ສຸດໃນການຄົ້ນຄວ້າຄວາມປອດໄພ AI. ພວກເຮົາຈະລວມເອົາຫຼັກການຄວາມເປັນສ່ວນຕົວຂອງພວກເຮົາເຂົ້າໃນການພັດທະນາແລະການນໍາໃຊ້ໂອກາດຂອງພວກເຮົາ, ແຈ້ງການ AI ຂອງພວກເຮົາ. ສະຖາປັດຕະຍະກໍາການປົກປ້ອງຄວາມເປັນສ່ວນຕົວ, ແລະສະຫນອງຄວາມໂປ່ງໃສທີ່ເຫມາະສົມແລະການຄວບຄຸມການນໍາໃຊ້ຂໍ້ມູນ."

ຄ້າຍຄືກັນກັບ Google, Microsoft ຍັງໄດ້ອອກຖະແຫຼງການກ່ຽວກັບຫຼັກການ AI ແລະວິທີການ, ໂດຍເນັ້ນຫນັກວ່າ: "ພວກເຮົາມຸ່ງຫມັ້ນທີ່ຈະຮັບປະກັນວ່າລະບົບ AI ໄດ້ຖືກພັດທະນາຢ່າງມີຄວາມຮັບຜິດຊອບແລະໃນວິທີການທີ່ຮັບປະກັນຄວາມໄວ້ວາງໃຈຂອງປະຊາຊົນ ... ". ນອກຈາກນັ້ນ, ໃນທາງໃດທາງຫນຶ່ງ, ບໍລິສັດເຕັກໂນໂລຢີຂະຫນາດໃຫຍ່ທີ່ກໍາລັງລົງທຶນຫຼາຍໃນການພັດທະນາເຄື່ອງມື AI ເຊັ່ນ Amazon ແລະ OpenAI ຍັງເຮັດຄໍາຫມັ້ນສັນຍາຂອງຕົນເອງ.

ຕົວຢ່າງຫຼາຍຢ່າງໃນປະຫວັດສາດໄດ້ພິສູດໃຫ້ເຫັນຄວາມເທົ່າທຽມຂອງເຕັກໂນໂລຢີ, ດ້ວຍປັດໃຈທາງບວກແລະປັດໃຈລົບ. ຫຼັງຈາກທີ່ທັງຫມົດ, ເຖິງແມ່ນວ່າມັນເປັນແພລະຕະຟອມເຕັກໂນໂລຢີ "ເຕັກໂນໂລຢີສູງ", AI ຍັງອີງໃສ່ສູດການຄິດໄລ່ແລະຂໍ້ມູນທີ່ຖືກພັດທະນາແລະເກັບກໍາໂດຍມະນຸດ; ໃນເວລາດຽວກັນ, ຜະລິດຕະພັນ AI ສ່ວນຫຼາຍແມ່ນສ່ວນຫນຶ່ງຂອງແຜນການທຸລະກິດຂອງບໍລິສັດທີ່ເປັນເຈົ້າຂອງ.

ດັ່ງນັ້ນ, ມີຄວາມສ່ຽງທີ່ອາດຈະເກີດຂຶ້ນສະເຫມີຈາກດ້ານດ້ານວິຊາການເຊັ່ນດຽວກັນກັບການພັດທະນາຜະລິດຕະພັນແລະທີມງານຄຸ້ມຄອງເອງ. ບັນຫານີ້ແມ່ນຂະຫນາດຂອງຜົນກະທົບທີ່ເຄື່ອງມື AI ສາມາດມີຢູ່ໃນສ່ວນໃຫຍ່, ເຖິງແມ່ນວ່າໃນລະດັບເສດຖະກິດ - ສັງຄົມຂອງຊຸມຊົນ. ການເອົາໃຈໃສ່ຢ່າງທັນການໃນການຄວບຄຸມດ້ານຈັນຍາບັນໃນເວລາທີ່ການນໍາໃຊ້ເຕັກໂນໂລຊີ AI ເປັນສັນຍານຍິນດີຕ້ອນຮັບການມີສ່ວນຮ່ວມຂອງອົງການຈັດຕັ້ງສາກົນຂະຫນາດໃຫຍ່ເຊັ່ນ: ສະຫະປະຊາຊາດ, ລັດຖະບານ, ສະມາຄົມອຸດສາຫະກໍາແລະຫຼາຍທີ່ສຸດ, ສິດທິໃນຫນ່ວຍງານພັດທະນາເຕັກໂນໂລຊີ.

ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກບັນຊີລາຍຊື່ຂອງເຄື່ອງມື AI ໄດ້ອອກຮຸ່ນໃຫມ່ຢ່າງຕໍ່ເນື່ອງ, ແຕ່ລະອັນມີຄວາມຊັບຊ້ອນແລະສັບສົນກວ່າອັນທີ່ຜ່ານມາ, ລະຫັດ, ຫຼັກການຫຼືຄໍາແນະນໍາຍັງຕ້ອງໄດ້ຮັບການປັບປຸງແລະເພີ່ມເຕີມຢ່າງທັນເວລາ, ແລະຍິ່ງໄປກວ່ານັ້ນ, ຈໍາເປັນຕ້ອງມີຄວາມຫ້າວຫັນໃນການປ້ອງກັນ, ຈໍາກັດແລະຄວບຄຸມຜູ້ພັດທະນາຜະລິດຕະພັນແລະຜູ້ໃຊ້ພາຍໃນຂອບເຂດທີ່ຄວາມສາມາດໃນການປະຕິບັດຕາມມາດຕະຖານທາງດ້ານເຕັກໂນໂລຢີແລະສື່ມວນຊົນທີ່ມີປະສິດທິພາບສູງສຸດໃນ AI.



ທີ່ມາ

(0)

No data
No data

​ໃນ​ລະດູ​ການ 'ລ່າ' ​ເພື່ອ​ຫາ​ຫຍ້າ​ຢູ່​ບິ່ງ​ລຽວ
ຢູ່​ກາງ​ປ່າ​ຊາຍ​ເລນ Can Gio
ຊາວ​ປະ​ມົງ​ກວາງ​ຫງາຍ​ໄດ້​ເງິນ​ຫຼາຍ​ລ້ານ​ດົ່ງ​ໃນ​ແຕ່​ລະ​ມື້​ຫຼັງ​ຈາກ​ຕີ​ກຸ້ງ
ວິ​ດີ​ໂອ​ການ​ສະ​ແດງ​ຊຸດ​ປະ​ຈໍາ​ຊາດ​ຂອງ Yen Nhi ມີ​ວິ​ດີ​ໂອ​ທີ່​ສູງ​ທີ່​ສຸດ​ໃນ Miss Grand International

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

ຮວ່າງ​ທິ​ລິງ​ນຳ​ເອົາ​ບົດ​ເພງ​ທີ່​ມີ​ຄວາມ​ຊົມ​ຫຼາຍ​ຮ້ອຍ​ລ້ານ​ວິວ​ຂຶ້ນ​ສູ່​ເວ​ທີ​ງານ​ບຸນ​ໂລກ

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ