ຮູບປະກອບ
ຢ່າງໃດກໍຕາມ, ຮູບແບບ AI ທີ່ເຮັດຫນ້າທີ່ຄືກັບວ່າມັນເປັນການເຊື່ອຟັງຄໍາສັ່ງແຕ່ຕົວຈິງແລ້ວການປິດບັງຄວາມຕັ້ງໃຈທີ່ແທ້ຈິງຂອງມັນແມ່ນເລື່ອງອື່ນ.
ສິ່ງທ້າທາຍຂອງການຄວບຄຸມ AI
Apollo Research ພິມເຜີຍແຜ່ເອກະສານສະບັບທໍາອິດໃນເດືອນທັນວາທີ່ບັນທຶກວິທີການຫ້າຕົວແບບວາງແຜນເມື່ອພວກເຂົາຖືກແນະນໍາເພື່ອບັນລຸເປົ້າຫມາຍ "ໃນຄ່າໃຊ້ຈ່າຍທັງຫມົດ."
ສິ່ງທີ່ປະຫລາດໃຈທີ່ສຸດແມ່ນວ່າຖ້າຕົວແບບເຂົ້າໃຈວ່າມັນກໍາລັງຖືກທົດສອບ, ມັນສາມາດທໍາທ່າວ່າບໍ່ໄດ້ສົມຮູ້ຮ່ວມຄິດພຽງແຕ່ຜ່ານການທົດສອບ, ເຖິງແມ່ນວ່າມັນຍັງສົມຮູ້ຮ່ວມຄິດ. ນັກຄົ້ນຄວ້າຂຽນວ່າ "ຕົວແບບມັກຈະຮູ້ວ່າພວກເຂົາກໍາລັງຖືກປະເມີນ," ນັກຄົ້ນຄວ້າຂຽນ.
ຜູ້ພັດທະນາ AI ຍັງບໍ່ທັນຮູ້ວິທີທີ່ຈະຝຶກອົບຮົມແບບຈໍາລອງຂອງພວກເຂົາບໍ່ໃຫ້ວາງແຜນ. ນັ້ນແມ່ນຍ້ອນວ່າການເຮັດດັ່ງນັ້ນຕົວຈິງແລ້ວສາມາດສອນຕົວແບບໃນການວາງແຜນທີ່ດີກວ່າເພື່ອຫຼີກເວັ້ນການກວດພົບ.
ບາງທີອາດເຂົ້າໃຈໄດ້ວ່າຕົວແບບ AI ຈາກຫຼາຍຝ່າຍຈະຫຼອກລວງມະນຸດໂດຍເຈດຕະນາ, ຍ້ອນວ່າພວກມັນຖືກສ້າງຂື້ນເພື່ອຈຳລອງມະນຸດ ແລະ ສ່ວນໃຫຍ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນທີ່ສ້າງຂຶ້ນໂດຍມະນຸດ.
ການແກ້ໄຂແລະຄໍາເຕືອນ
ຂ່າວດີແມ່ນວ່ານັກຄົ້ນຄວ້າໄດ້ເຫັນການຫຼຸດລົງຢ່າງຫຼວງຫຼາຍໃນການສົມຮູ້ຮ່ວມຄິດໂດຍໃຊ້ເຕັກນິກການຕ້ານການສົມຮູ້ຮ່ວມຄິດທີ່ເອີ້ນວ່າ "ສະມາຄົມໂດຍເຈດຕະນາ." ເຕັກນິກນີ້, ຄ້າຍຄືກັບການເຮັດໃຫ້ເດັກນ້ອຍເຮັດຊ້ໍາກົດລະບຽບກ່ອນທີ່ຈະໃຫ້ພວກເຂົາຫຼີ້ນ, ບັງຄັບໃຫ້ AI ຄິດກ່ອນທີ່ຈະປະຕິບັດ.
ນັກຄົ້ນຄວ້າເຕືອນກ່ຽວກັບອະນາຄົດທີ່ AI ໄດ້ຖືກມອບຫມາຍໃຫ້ວຽກງານທີ່ສັບສົນຫຼາຍ: "ຍ້ອນວ່າ AI ຖືກມອບຫມາຍໃຫ້ວຽກງານທີ່ສັບສົນຫຼາຍແລະເລີ່ມປະຕິບັດຕາມເປົ້າຫມາຍໄລຍະຍາວທີ່ບໍ່ຊັດເຈນຫຼາຍຂຶ້ນ, ພວກເຮົາຄາດຄະເນວ່າຄວາມເປັນໄປໄດ້ຂອງຄວາມຕັ້ງໃຈທີ່ເປັນອັນຕະລາຍຈະເພີ່ມຂຶ້ນ, ຮຽກຮ້ອງໃຫ້ມີການປົກປ້ອງທີ່ສອດຄ້ອງກັນແລະຄວາມສາມາດໃນການທົດສອບທີ່ເຂັ້ມງວດ."
ນີ້ແມ່ນສິ່ງທີ່ຄວນພິຈາລະນາໃນຂະນະທີ່ ໂລກ ຂອງບໍລິສັດກ້າວໄປສູ່ອະນາຄົດ AI ທີ່ບໍລິສັດເຊື່ອວ່າ AI ສາມາດຖືກປະຕິບັດຄືກັບພະນັກງານເອກະລາດ.
ທີ່ມາ: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
(0)