Vietnam.vn - Nền tảng quảng bá Việt Nam

ຈັນຍາບັນຂອງພະນັກງານສື່ມວນຊົນເມື່ອນໍາໃຊ້ເຕັກໂນໂລຢີ AI

Báo Quốc TếBáo Quốc Tế27/10/2024

ພວກເຮົາກໍາລັງດໍາລົງຊີວິດຢູ່ໃນຍຸກຂອງການປະຕິວັດອຸດສາຫະກໍາ 4.0, ບ່ອນທີ່ປັນຍາປະດິດ (AI) ຄ່ອຍໆກາຍເປັນສ່ວນຫນຶ່ງທີ່ຂາດບໍ່ໄດ້ຂອງຫຼາຍຂົງເຂດຂອງຊີວິດສັງຄົມ. ສື່ມວນຊົນ, ເປັນຂົວຕໍ່ຂໍ້ມູນຂ່າວສານລະຫວ່າງປະຊາຊົນແລະເຫດການ, ບໍ່ສາມາດຢູ່ນອກແນວໂນ້ມນັ້ນ.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
ທ່ານ​ນາງ ຫງວຽນ​ທິ​ຫາຍ​ວັນ, ຜູ້​ອຳ​ນວຍ​ການ​ສູນ​ຝຶກ​ອົບ​ຮົມ​ນັກ​ຂ່າວ, ສະ​ມາ​ຄົມ​ນັກ​ຂ່າວ​ຫວຽດ​ນາມ ທີ່​ກອງ​ປະ​ຊຸມ​ສຳ​ມະ​ນາ​ເຕັກ​ໂນ​ໂລ​ຊີ AI. (ທີ່ມາ: ສະມາຄົມນັກຂ່າວຫວຽດນາມ)

ເພື່ອສ້າງປະໂຫຍດສູງສຸດທີ່ AI ເອົາມາໃຫ້, ຜູ້ສື່ສານຈໍາເປັນຕ້ອງມີຄວາມຮູ້ຄວາມສາມາດຂອງຕົນເອງເພື່ອນໍາໃຊ້ AI ໃຫ້ມີປະສິດຕິຜົນ, ໃນຂະນະທີ່ຮັບປະກັນຄວາມຫນ້າເຊື່ອຖືແລະຈັນຍາບັນໃນການສົ່ງຂໍ້ມູນ.

ຈາກ "ຄວາມຮ້ອນ" ຂອງ AI

ມັນເປັນທີ່ຊັດເຈນແທ້ໆວ່າ AI (Artificial Intelligence) ແມ່ນຫນຶ່ງໃນຄໍາທີ່ຮ້ອນທີ່ສຸດໃນມື້ນີ້. ໃນເດືອນກັນຍາ 2024, ການຄົ້ນຫາໃນ Google Search ສໍາລັບຄໍາສໍາຄັນ "AI" ໃນ 0.3 ວິນາທີບັນທຶກ 15 ຕື້ 900 ລ້ານຜົນໄດ້ຮັບ; ດ້ວຍຄໍາສໍາຄັນ "ເຄື່ອງມື AI", ໃນ 0.4 ວິນາທີບັນທຶກຫຼາຍກວ່າ 3 ຕື້ 400 ລ້ານຜົນໄດ້ຮັບ. ຕົວເລກຈໍານວນຫຼວງຫຼາຍເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງການຄຸ້ມຄອງແລະຄວາມສົນໃຈໃນ AI ແລະເຄື່ອງມືທີ່ອີງໃສ່ AI ທົ່ວໂລກ.

ໃນປັດຈຸບັນ, ມີເຄື່ອງມື AI ເພີ່ມຂຶ້ນເລື້ອຍໆສໍາລັບຂົງເຂດຕ່າງໆ, ລວມທັງອຸດສາຫະກໍາສື່ມວນຊົນ. ນອກຈາກ ChatGPT ທີ່ຮູ້ຈັກກັນຢ່າງກວ້າງຂວາງ, ຍັງມີແອັບພລິເຄຊັນ AI ຫຼາຍຢ່າງທີ່ພັດທະນາໃນທິດທາງພິເສດ, ຮັບໃຊ້ວຽກງານພິເສດ. ມັນບໍ່ຍາກທີ່ຈະລາຍຊື່ເຄື່ອງມືຈໍານວນຫຼາຍຢູ່ທີ່ນີ້, ຕົວຢ່າງ: Bing AI, Clause, Zapier Central ສໍາລັບກຸ່ມວຽກ Chatbot; Jasper, Copy.ai, Anyword ສໍາລັບວຽກງານສ້າງເນື້ອຫາ; Descript, Wondershare, Runway ສໍາລັບການຜະລິດ ວິດີໂອ ແລະວຽກງານການແກ້ໄຂ; DALL-E3, Midjourney, Stable Diffusion ສໍາລັບວຽກງານການສ້າງຮູບພາບ; Murf, AIVA ສໍາລັບວຽກງານເນື້ອໃນສຽງ, ແລະອື່ນໆແລະບໍ່ດົນມານີ້, Amazon ຍັກໃຫຍ່ຍັງໄດ້ນໍາສະເຫນີເຄື່ອງມື AI ທີ່ພວກເຂົາພັດທະນາ, Video Generator ແລະສ້າງຮູບພາບ, ໂດຍມີຈຸດປະສົງ "ສ້າງແຮງບັນດານໃຈສ້າງສັນແລະນໍາເອົາມູນຄ່າຫຼາຍຂຶ້ນ".

ເຖິງແມ່ນວ່າເຄື່ອງມື AI ມີຄວາມຫຼາກຫຼາຍຫຼາຍໃນຂະຫນາດຫຼືລະດັບຂອງຄວາມຊ່ຽວຊານ, ໂດຍເນື້ອແທ້ແລ້ວເຕັກໂນໂລຊີມີສອງສິ່ງທົ່ວໄປ: ເຄື່ອງມື AI ໄດ້ຖືກພັດທະນາໂດຍອີງໃສ່ algorithms ແລະຂໍ້ມູນເພື່ອ "ຝຶກອົບຮົມ" ເຄື່ອງມື AI.

ການຄວບຄຸມດ້ານຈັນຍາບັນຂອງການນໍາໃຊ້ AI ໃນສື່

ບໍ່ມີການປະຕິເສດຄວາມສະດວກສະບາຍທີ່ເຄື່ອງມື AI ເອົາມາໃຫ້ ແລະດ້ວຍຄວາມໄວຂອງການປັບປຸງເຕັກໂນໂລຢີຢ່າງໄວວາ, ຈະມີເຄື່ອງມື AI ທີ່ມີຄວາມຊໍານິຊໍານານຫຼາຍຂຶ້ນໃນທຸກໆມຸມ, ຕອບສະຫນອງຕໍ່ຫນ້າວຽກຈາກງ່າຍດາຍໄປຫາສະລັບສັບຊ້ອນໃນອຸດສາຫະກໍາສື່ມວນຊົນ. ຄຽງຄູ່ກັບການພັດທະນາອັນລົ້ນເຫຼືອນີ້, ຄໍາຖາມຈໍານວນຫຼາຍເກີດຂື້ນກ່ຽວກັບບັນຫາການຄວບຄຸມດ້ານຈັນຍາບັນໃນການພັດທະນາແລະການນໍາໃຊ້ເຄື່ອງມື AI ໃນອຸດສາຫະກໍາສື່ມວນຊົນ? ຈະເກີດຫຍັງຂຶ້ນຖ້າ algorithms ແລະຂໍ້ມູນຂອງເຄື່ອງມື AI ນັ້ນຖືກໝູນໃຊ້ໃນທາງທີ່ເປັນອັນຕະລາຍຕໍ່ຊຸມຊົນ? ໃຜເປັນຜູ້ຮັບປະກັນສິດທິຊັບສິນທາງປັນຍາສໍາລັບການປ້ອນຂໍ້ມູນທີ່ເຄື່ອງມື AI ນໍາໃຊ້ສໍາລັບການຝຶກອົບຮົມ? ໃຜປະເມີນລະດັບອັນຕະລາຍທີ່ພວກເຂົາເຮັດໃຫ້ເກີດ?

ມີຄວາມບໍ່ສະເຫມີພາບລະຫວ່າງກຸ່ມຄົນທີ່ເຂົ້າເຖິງເຄື່ອງມື AI ແລະກຸ່ມທີ່ບໍ່ສາມາດເຂົ້າເຖິງພວກເຂົາໃນວຽກງານດຽວກັນບໍ? ຍັງມີຄໍາຖາມທີ່ຍົກຂຶ້ນມາກ່ຽວກັບລະດັບອັນຕະລາຍທີ່ບໍ່ສາມາດຄວບຄຸມໄດ້ຈາກເຄື່ອງມື AI, ໂດຍສະເພາະໃນເຂດທີ່ມີຄວາມອ່ອນໄຫວທີ່ສາມາດສົ່ງຜົນກະທົບຕໍ່ປະຊາຊົນຈໍານວນຫຼາຍໃນຂະຫນາດໃຫຍ່ເຊັ່ນ: ສື່ແລະເຄືອຂ່າຍສັງຄົມ.

ການຮັບຮູ້ຄວາມກັງວົນຂ້າງເທິງ, ຫຼາຍອົງການຈັດຕັ້ງ, ສະມາຄົມ, ລັດຖະບານແລະແມ້ກະທັ້ງບໍລິສັດແລະບໍລິສັດທີ່ພັດທະນາເຄື່ອງມື AI ໄດ້ອອກຄໍາແນະນໍາ, ຄໍາອະທິບາຍ, ແລະແມ້ກະທັ້ງ Codes of Conduct ທີ່ກ່ຽວຂ້ອງກັບບັນຫາການຄວບຄຸມດ້ານຈັນຍາບັນໃນເຕັກໂນໂລຢີ AI. ຮັບຮອງເອົາໂດຍ 193 ປະເທດໃນປີ 2021, ຖະແຫຼງການກ່ຽວກັບຈັນຍາບັນຂອງປັນຍາປະດິດ - ຄໍາແນະນໍາຂອງອົງການ UNESCO - ອົງ ການການສຶກສາ , ວິທະຍາສາດແລະວັດທະນະທໍາຂອງສະຫະປະຊາຊາດ, ລະບຸຢ່າງຊັດເຈນວ່າ "ການເພີ່ມຂຶ້ນຢ່າງໄວວາຂອງປັນຍາປະດິດ (AI) ໄດ້ສ້າງໂອກາດຫຼາຍທົ່ວໂລກ, ຈາກການຊ່ວຍເຫຼືອວຽກງານການວິນິດໄສສຸຂະພາບອັດຕະໂນມັດກັບມະນຸດໂດຍຜ່ານສື່ຕ່າງໆ.

ຢ່າງໃດກໍ່ຕາມ, ການປ່ຽນແປງຢ່າງໄວວາເຫຼົ່ານີ້ຍັງເຮັດໃຫ້ເກີດຄວາມກັງວົນດ້ານຈັນຍາບັນທີ່ເລິກເຊິ່ງ. ຄວາມສ່ຽງດັ່ງກ່າວທີ່ກ່ຽວຂ້ອງກັບ AI ໄດ້ເລີ່ມຕົ້ນລວມຄວາມບໍ່ສະເຫມີພາບທີ່ມີຢູ່ແລ້ວ, ນໍາໄປສູ່ຄວາມເສຍຫາຍຕໍ່ກຸ່ມທີ່ດ້ອຍໂອກາດແລ້ວ…”. ແລະຈາກນັ້ນ "ຮຽກຮ້ອງໃຫ້ອົງການ UNESCO ພັດທະນາເຄື່ອງມືເພື່ອສະຫນັບສະຫນູນປະເທດສະມາຊິກ, ລວມທັງວິທີການປະເມີນຄວາມພ້ອມ, ເຄື່ອງມືສໍາລັບລັດຖະບານເພື່ອສ້າງຮູບພາບທີ່ສົມບູນແບບຂອງຄວາມພ້ອມທີ່ຈະປະຕິບັດ AI ຢ່າງມີຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບສໍາລັບພົນລະເມືອງຂອງພວກເຂົາທັງຫມົດ.

ໃນວິທີການທົ່ວໂລກຂອງຕົນ, UNESCO ໄດ້ເປີດຕົວ Global AI Ethics and Governance Observatory, ເຊິ່ງມັນກ່າວວ່າ "ໃຫ້ຂໍ້ມູນກ່ຽວກັບຄວາມພ້ອມຂອງບັນດາປະເທດທີ່ຈະຮັບຮອງເອົາ AI ດ້ານຈັນຍາບັນແລະຄວາມຮັບຜິດຊອບ. ມັນຍັງເປັນເຈົ້າພາບຫ້ອງທົດລອງຈັນຍາບັນ AI, ເຊິ່ງລວມເອົາການປະກອບສ່ວນ, ການຄົ້ນຄວ້າທີ່ມີຜົນກະທົບ, ເຄື່ອງມື, ແລະການປະຕິບັດໃນທາງບວກກ່ຽວກັບຄວາມຫລາກຫລາຍຂອງ AI ...

ນອກເຫນືອຈາກອົງການຈັດຕັ້ງທົ່ວໂລກເຊັ່ນ UNESCO, ສະມາຄົມວິຊາຊີບຈໍານວນຫຼາຍຍັງເຮັດວຽກເພື່ອພັດທະນາມາດຕະຖານຂອງຕົນເອງ, ຕົວຢ່າງເຊັ່ນ IABC - International Association of Business Communications, ສະມາຄົມທີ່ມີສະມາຊິກຫລາຍພັນຄົນຈາກທົ່ວໂລກ, ໄດ້ສ້າງຊຸດຂອງຫຼັກການແນະນໍາການນໍາໃຊ້ຈັນຍາບັນຂອງ AI ໂດຍຜູ້ຊ່ຽວຊານດ້ານການສື່ສານ, ເຊິ່ງມີຈຸດປະສົງເພື່ອແນະນໍາສະມາຊິກ IABC ກ່ຽວກັບຄວາມກ່ຽວຂ້ອງຂອງ IABC Code of the Eth. ຂໍ້ແນະນຳເຫຼົ່ານີ້ອາດຈະໄດ້ຮັບການປັບປຸງ ແລະ ເພີ່ມເຕີມຕາມການເວລາ ຄຽງຄູ່ກັບການພັດທະນາເຕັກໂນໂລຊີ AI. ໃນຫຼັກການນີ້, ມີຫຼາຍຈຸດສະເພາະທີ່ຜູ້ຊ່ຽວຊານດ້ານການສື່ສານຄວນປະຕິບັດຕາມເຊັ່ນ:

"ຊັບພະຍາກອນ AI ທີ່ໃຊ້ຕ້ອງມີການຂັບເຄື່ອນຂອງມະນຸດເພື່ອສ້າງປະສົບການໃນທາງບວກແລະໂປ່ງໃສທີ່ສົ່ງເສີມຄວາມເຄົາລົບແລະສ້າງຄວາມໄວ້ວາງໃຈໃນອາຊີບສື່ມວນຊົນ. ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຕິດຕາມໂອກາດທາງວິຊາຊີບແລະຄວາມສ່ຽງທີ່ເຄື່ອງມື AI ນໍາສະເຫນີ. ຂໍ້ມູນຕ້ອງໄດ້ຮັບການສື່ສານຢ່າງຖືກຕ້ອງ, ຈຸດປະສົງ, ແລະຍຸຕິທໍາ. ເຄື່ອງມື AI ສາມາດມີຄວາມຜິດພາດຫຼາຍ, ຄວາມບໍ່ສອດຄ່ອງ, ແລະບັນຫາດ້ານວິຊາການອື່ນໆ. ນີ້ຮຽກຮ້ອງໃຫ້ມີການພິຈາລະນາຂອງມະນຸດຢ່າງເປັນເອກະລາດ AI ທີ່ຖືກຕ້ອງ. ໂປ່ງໃສ, ແລະຖືກລັກລອບ.

ປົກປ້ອງຂໍ້ມູນສ່ວນຕົວ ແລະ/ຫຼືຂໍ້ມູນລັບຂອງຄົນອື່ນ ແລະຈະບໍ່ໃຊ້ມັນໂດຍບໍ່ມີການອະນຸຍາດຈາກເຂົາເຈົ້າ. ປະເມີນຜົນໄດ້ຮັບ AI ຂອງມັນໂດຍອີງໃສ່ການມີສ່ວນຮ່ວມຂອງມະນຸດແລະຄວາມເຂົ້າໃຈຂອງຊຸມຊົນທີ່ມັນມີຈຸດປະສົງເພື່ອຮັບໃຊ້. ລົບລ້າງຄວາມລໍາອຽງໃຫ້ດີທີ່ສຸດຂອງຄວາມສາມາດຂອງຕົນແລະມີຄວາມອ່ອນໄຫວຕໍ່ກັບຄຸນຄ່າວັດທະນະທໍາແລະຄວາມເຊື່ອຂອງຄົນອື່ນ.

ຕ້ອງມີການກວດສອບຄວາມເປັນຈິງຢ່າງເປັນເອກະລາດແລະກວດສອບຜົນໄດ້ຮັບຂອງຕົນເອງດ້ວຍຄວາມເຄັ່ງຄັດດ້ານວິຊາຊີບທີ່ຈໍາເປັນເພື່ອຮັບປະກັນວ່າເອກະສານ, ຂໍ້ມູນ, ຫຼືເອກະສານອ້າງອີງຂອງພາກສ່ວນທີສາມແມ່ນຖືກຕ້ອງ, ມີຄຸນລັກສະນະແລະການກວດສອບທີ່ຈໍາເປັນ, ແລະຖືກອະນຸຍາດຫຼືອະນຸຍາດໃຫ້ນໍາໃຊ້ຢ່າງຖືກຕ້ອງ. ຢ່າພະຍາຍາມປົກປິດຫຼືປອມຕົວການໃຊ້ AI ໃນຜົນຜະລິດທີ່ເປັນມືອາຊີບຂອງພວກເຂົາ. ຮັບຮູ້ລັກສະນະ open-source ຂອງ AI ແລະບັນຫາທີ່ກ່ຽວຂ້ອງກັບຄວາມລັບ, ລວມທັງການປ້ອນຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ເຂົ້າໃຈຜິດ, ຫຼືຫຼອກລວງ.

ສໍາລັບບໍລິສັດແລະບໍລິສັດທີ່ເປັນເຈົ້າຂອງ, ພັດທະນາແລະການຄ້າເຄື່ອງມື AI, ພວກເຂົາແມ່ນຜູ້ທີ່ເຂົ້າໃຈ ins ແລະ outs ຂອງເຄື່ອງມື AI ດີກວ່າຄົນອື່ນ, ພວກເຂົາຮູ້ວິທີພື້ນຖານທີ່ເຄື່ອງມື AI ດໍາເນີນການ, ແລະຂໍ້ມູນຈາກເຄື່ອງມື AI ໄດ້ຮັບການຝຶກອົບຮົມ. ດັ່ງນັ້ນ, ບໍລິສັດເຫຼົ່ານີ້ຍັງຕ້ອງການໃຫ້ຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບຫຼັກການຂອງຈັນຍາບັນໃນການພັດທະນາ AI. ໃນຄວາມເປັນຈິງ, ມີບໍລິສັດທີ່ມີຄວາມສົນໃຈໃນບັນຫານີ້.

Google ມຸ່ງຫມັ້ນທີ່ຈະບໍ່ພັດທະນາເຄື່ອງມື AI ສໍາລັບພື້ນທີ່ທີ່ມີຄວາມສ່ຽງຕໍ່ອັນຕະລາຍຢ່າງຫຼວງຫຼາຍ, ພວກເຮົາຈະດໍາເນີນການພຽງແຕ່ບ່ອນທີ່ພວກເຮົາເຊື່ອວ່າຜົນປະໂຫຍດຫຼາຍກວ່າຄວາມສ່ຽງຢ່າງຫຼວງຫຼາຍແລະລວມເອົາການປົກປ້ອງທີ່ເຫມາະສົມ. ອາວຸດ ຫຼື ເທັກໂນໂລຍີອື່ນໆ ທີ່ມີຈຸດປະສົງຫຼັກ ຫຼື ການນຳໃຊ້ແມ່ນເພື່ອເຮັດໃຫ້ ຫຼື ອຳນວຍຄວາມສະດວກໂດຍກົງຕໍ່ການບາດເຈັບຂອງມະນຸດ. ເຕັກໂນໂລຢີທີ່ເກັບກໍາຫຼືນໍາໃຊ້ຂໍ້ມູນສໍາລັບການເຝົ້າລະວັງທີ່ລະເມີດມາດຕະຖານທີ່ຍອມຮັບຈາກສາກົນ. ເຕັກໂນໂລຢີທີ່ມີຈຸດປະສົງລະເມີດຫຼັກການທີ່ຍອມຮັບໂດຍທົ່ວໄປຂອງກົດຫມາຍສາກົນແລະສິດທິມະນຸດ.

ໃນດ້ານຄວາມປອດໄພແລະຄວາມປອດໄພ, Google ສັນຍາວ່າ: "ພວກເຮົາຈະສືບຕໍ່ພັດທະນາແລະປະຕິບັດມາດຕະການຄວາມປອດໄພແລະຄວາມປອດໄພທີ່ເຂັ້ມແຂງເພື່ອຫຼີກເວັ້ນການຜົນໄດ້ຮັບທີ່ບໍ່ໄດ້ຕັ້ງໃຈທີ່ຈະສ້າງຄວາມສ່ຽງຕໍ່ອັນຕະລາຍ. ພວກເຮົາຈະອອກແບບລະບົບ AI ຂອງພວກເຮົາໃຫ້ມີຄວາມລະມັດລະວັງທີ່ເຫມາະສົມແລະຊອກຫາວິທີທີ່ຈະພັດທະນາໃຫ້ເຂົາເຈົ້າສອດຄ່ອງກັບການປະຕິບັດທີ່ດີທີ່ສຸດໃນການຄົ້ນຄວ້າຄວາມປອດໄພ AI. ພວກເຮົາຈະລວມເອົາຫຼັກການຄວາມເປັນສ່ວນຕົວຂອງພວກເຮົາເຂົ້າໃນການພັດທະນາແລະການນໍາໃຊ້ໂອກາດຂອງພວກເຮົາ, ແຈ້ງການ AI ຂອງພວກເຮົາ. ສະຖາປັດຕະຍະກໍາການປົກປ້ອງຄວາມເປັນສ່ວນຕົວ, ແລະສະຫນອງຄວາມໂປ່ງໃສທີ່ເຫມາະສົມແລະການຄວບຄຸມການນໍາໃຊ້ຂໍ້ມູນ."

ຄ້າຍຄືກັນກັບ Google, Microsoft ຍັງໄດ້ອອກຖະແຫຼງການກ່ຽວກັບຫຼັກການ AI ແລະວິທີການ, ໂດຍເນັ້ນຫນັກວ່າ: "ພວກເຮົາມຸ່ງຫມັ້ນທີ່ຈະຮັບປະກັນວ່າລະບົບ AI ໄດ້ຖືກພັດທະນາຢ່າງມີຄວາມຮັບຜິດຊອບແລະໃນວິທີການທີ່ຮັບປະກັນຄວາມໄວ້ວາງໃຈຂອງປະຊາຊົນ ... ". ນອກຈາກນັ້ນ, ໃນທາງໃດທາງຫນຶ່ງ, ບໍລິສັດເຕັກໂນໂລຢີຂະຫນາດໃຫຍ່ທີ່ກໍາລັງລົງທຶນຫຼາຍໃນການພັດທະນາເຄື່ອງມື AI ເຊັ່ນ Amazon ແລະ OpenAI ຍັງເຮັດຄໍາຫມັ້ນສັນຍາຂອງຕົນເອງ.

ຕົວຢ່າງຫຼາຍຢ່າງໃນປະຫວັດສາດໄດ້ພິສູດໃຫ້ເຫັນຄວາມເທົ່າທຽມຂອງເຕັກໂນໂລຢີ, ດ້ວຍປັດໃຈທາງບວກແລະປັດໃຈລົບ. ຫຼັງຈາກທີ່ທັງຫມົດ, ເຖິງແມ່ນວ່າມັນເປັນແພລະຕະຟອມເຕັກໂນໂລຢີ "ເຕັກໂນໂລຢີສູງ", AI ຍັງອີງໃສ່ສູດການຄິດໄລ່ແລະຂໍ້ມູນທີ່ຖືກພັດທະນາແລະເກັບກໍາໂດຍມະນຸດ; ໃນເວລາດຽວກັນ, ຜະລິດຕະພັນ AI ສ່ວນຫຼາຍແມ່ນສ່ວນຫນຶ່ງຂອງແຜນການທຸລະກິດຂອງບໍລິສັດທີ່ເປັນເຈົ້າຂອງ.

ດັ່ງນັ້ນ, ມີຄວາມສ່ຽງທີ່ອາດຈະເກີດຂຶ້ນສະເຫມີຈາກດ້ານດ້ານວິຊາການເຊັ່ນດຽວກັນກັບການພັດທະນາຜະລິດຕະພັນແລະທີມງານຄຸ້ມຄອງເອງ. ບັນຫານີ້ແມ່ນຂະຫນາດຂອງຜົນກະທົບທີ່ເຄື່ອງມື AI ສາມາດມີຢູ່ໃນສ່ວນໃຫຍ່, ເຖິງແມ່ນວ່າໃນລະດັບເສດຖະກິດ - ສັງຄົມຂອງຊຸມຊົນ. ການເອົາໃຈໃສ່ຢ່າງທັນການໃນການຄວບຄຸມດ້ານຈັນຍາບັນໃນເວລາທີ່ການນໍາໃຊ້ເຕັກໂນໂລຊີ AI ເປັນສັນຍານຍິນດີຕ້ອນຮັບການມີສ່ວນຮ່ວມຂອງອົງການຈັດຕັ້ງສາກົນຂະຫນາດໃຫຍ່ເຊັ່ນ: ສະຫະປະຊາຊາດ, ລັດຖະບານ, ສະມາຄົມອຸດສາຫະກໍາແລະຫຼາຍທີ່ສຸດ, ສິດທິໃນຫນ່ວຍງານພັດທະນາເຕັກໂນໂລຊີ.

ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກບັນຊີລາຍຊື່ຂອງເຄື່ອງມື AI ໄດ້ອອກຮຸ່ນໃຫມ່ຢ່າງຕໍ່ເນື່ອງ, ແຕ່ລະອັນມີຄວາມຊັບຊ້ອນແລະສັບສົນກວ່າອັນທີ່ຜ່ານມາ, ລະຫັດ, ຫຼັກການຫຼືຄໍາແນະນໍາຍັງຕ້ອງໄດ້ຮັບການປັບປຸງແລະເພີ່ມເຕີມຢ່າງທັນເວລາ, ແລະຍິ່ງໄປກວ່ານັ້ນ, ຈໍາເປັນຕ້ອງມີຄວາມຫ້າວຫັນໃນການປ້ອງກັນ, ຈໍາກັດແລະຄວບຄຸມຜູ້ພັດທະນາຜະລິດຕະພັນແລະຜູ້ໃຊ້ພາຍໃນຂອບເຂດທີ່ຄວາມສາມາດໃນການປະຕິບັດຕາມມາດຕະຖານທາງດ້ານເຕັກໂນໂລຢີແລະສື່ມວນຊົນທີ່ມີປະສິດທິພາບສູງສຸດໃນ AI.



ທີ່ມາ

(0)

ວິຫານ Notre Dame ຢູ່ນະຄອນ ໂຮ່ຈີມິນ ໄດ້ສະຫວ່າງສະໄຫວເພື່ອຕ້ອນຮັບບຸນຄຣິສມາສ 2025
ເດັກຍິງຮ່າໂນ້ຍ "ແຕ່ງຕົວ" ທີ່ສວຍງາມສໍາລັບລະດູການວັນຄຣິດສະມາດ
ຫລັງ​ຈາກ​ລົມ​ພາຍຸ​ແລະ​ນ້ຳ​ຖ້ວມ, ໝູ່​ບ້ານ Tet chrysanthemum ​ເມືອງ Gia Lai ຫວັງ​ວ່າ​ຈະ​ບໍ່​ມີ​ໄຟຟ້າ​ໃຊ້​ເພື່ອ​ຊ່ວຍ​ປະ​ຢັດ​ໂຮງງານ.
ນະຄອນຫຼວງຂອງຕົ້ນຫມາກໂປມສີເຫຼືອງໃນພາກກາງໄດ້ຮັບຄວາມເສຍຫາຍຢ່າງຫນັກຫຼັງຈາກໄພພິບັດທໍາມະຊາດສອງເທົ່າ

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

ຮ້ານກາເຟ ດາລາດ ເຫັນວ່າມີລູກຄ້າເພີ່ມຂຶ້ນ 300% ຍ້ອນວ່າ ເຈົ້າຂອງຫຼິ້ນລະຄອນ 'ລະຄອນສິລະປະການຕໍ່ສູ້'

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC