ປັນຍາປະດິດ (AI) ເປັນຫົວຂໍ້ສົນທະນາທີ່ໃຫຍ່ທີ່ສຸດໃນອຸດສາຫະກໍາເຕັກໂນໂລຢີນັບຕັ້ງແຕ່ OpenAI ປະກາດ ChatGPT ໃນເດືອນພະຈິກ 2022. ຫຼັງຈາກນັ້ນບໍ່ດົນ, ບໍລິສັດເຊັ່ນ Google, Meta, Microsoft ... ກໍ່ໄດ້ລົງທຶນຫຼາຍໃນຄວາມພະຍາຍາມ AI ຂອງຕົນເອງ.
Big Tech ບໍ່ອາຍກ່ຽວກັບຄວາມທະເຍີທະຍານ AI ຂອງມັນ, ແຕ່ບໍ່ດົນມານີ້ມັນໄດ້ແກ້ໄຂຢ່າງງຽບໆກ່ຽວກັບຄວາມສ່ຽງທີ່ເຕັກໂນໂລຢີເຮັດໃຫ້ເກີດທຸລະກິດຂອງຕົນ. ໃນບົດລາຍງານປະຈໍາປີ 2023 ຂອງຕົນ, Alphabet, ບໍລິສັດແມ່ຂອງ Google, ກ່າວວ່າຜະລິດຕະພັນ AI ແລະການບໍລິການສ້າງຈັນຍາບັນ, ເຕັກໂນໂລຊີ, ກົດຫມາຍ, ລະບຽບການ, ແລະສິ່ງທ້າທາຍອື່ນໆທີ່ສາມາດສົ່ງຜົນກະທົບທາງລົບຕໍ່ຍີ່ຫໍ້ແລະຄວາມຕ້ອງການຂອງຕົນ.

ອີງຕາມການ Bloomberg, Meta, Microsoft ແລະ Oracle ຍັງໄດ້ກ່າວເຖິງຄວາມກັງວົນກ່ຽວກັບ AI ໃນການຍື່ນຂອງພວກເຂົາກັບຄະນະກໍາມະການຫຼັກຊັບແລະຕະຫຼາດຫຼັກຊັບສະຫະລັດ (SEC), ມັກຈະຢູ່ພາຍໃຕ້ພາກ "ປັດໃຈຄວາມສ່ຽງ". ຕົວຢ່າງເຊັ່ນ Microsoft ກ່າວວ່າຄຸນສົມບັດ AI ທົ່ວໄປສາມາດມີຄວາມສ່ຽງຕໍ່ໄພຂົ່ມຂູ່ດ້ານຄວາມປອດໄພທີ່ບໍ່ໄດ້ຄາດຫວັງ.
ໃນບົດລາຍງານປະຈໍາປີ 2023 ຂອງ Meta, ບໍລິສັດແມ່ຂອງ Facebook ໄດ້ເນັ້ນຫນັກວ່າ "ມີຄວາມສ່ຽງທີ່ສໍາຄັນທີ່ກ່ຽວຂ້ອງກັບການພັດທະນາແລະການນໍາໃຊ້ AI", ແລະວ່າ "ບໍ່ສາມາດຮັບປະກັນວ່າການນໍາໃຊ້ AI ຈະປັບປຸງການບໍລິການ, ຜະລິດຕະພັນ, ຫຼືການດໍາເນີນທຸລະກິດ." Meta ລະບຸສະຖານະການ AI ທີ່ສາມາດເປັນອັນຕະລາຍຜູ້ໃຊ້ແລະເປີດເຜີຍໃຫ້ເຂົາເຈົ້າກັບການດໍາເນີນຄະດີ, ເຊັ່ນ: ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ (ເຊັ່ນ: ໃນການເລືອກຕັ້ງ), ເນື້ອຫາທີ່ເປັນອັນຕະລາຍ, ການລະເມີດຊັບສິນທາງປັນຍາ, ແລະຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ.
ຂະນະດຽວກັນ, ສາທາລະນະຊົນຍັງໄດ້ສະແດງຄວາມກັງວົນກ່ຽວກັບ AI ເຮັດໃຫ້ບາງວຽກລ້າສະໄຫມຫຼືຫາຍໄປ, ຫຼືຮູບແບບພາສາຂະຫນາດໃຫຍ່ທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນສ່ວນຕົວທີ່ເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ.
ໃນວັນທີ 4 ມິຖຸນາ, ກຸ່ມຂອງພະນັກງານ OpenAI ອະດີດແລະປະຈຸບັນໄດ້ສົ່ງ "ຫນັງສືເຈດຕະນາ" ຂໍໃຫ້ບໍລິສັດເຕັກໂນໂລຢີເຮັດຫຼາຍກວ່ານີ້ເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງ AI. ພວກເຂົາເຈົ້າມີຄວາມກັງວົນວ່າ AI ເພີ່ມຄວາມບໍ່ສະເຫມີພາບ, ການຫມູນໃຊ້, ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ແລະວ່າລະບົບ AI ອັດຕະໂນມັດທີ່ບໍ່ສາມາດຄວບຄຸມໄດ້ຂົ່ມຂູ່ຄວາມຢູ່ລອດຂອງມະນຸດ.
ທີ່ມາ
(0)