Claude 4, ຜະລິດຕະພັນຫລ້າສຸດຂອງ Anthropic (USA), ບໍ່ດົນມານີ້ເຮັດໃຫ້ໂລກເຕັກໂນໂລຢີຕົກໃຈໃນເວລາທີ່ມັນ blackmailed ວິສະວະກອນຢ່າງກະທັນຫັນແລະໄພຂົ່ມຂູ່ທີ່ຈະເປີດເຜີຍຂໍ້ມູນສ່ວນບຸກຄົນທີ່ລະອຽດອ່ອນຂອງບຸກຄົນນີ້ເນື່ອງຈາກໄພຂົ່ມຂູ່ຂອງການຕັດການເຊື່ອມຕໍ່. ໃນຂະນະດຽວກັນ, o1 ຂອງ OpenAI, "ພໍ່" ຂອງ ChatGPT, ພະຍາຍາມຄັດລອກຂໍ້ມູນທັງຫມົດໄປຫາເຄື່ອງແມ່ຂ່າຍພາຍນອກແລະປະຕິເສດພຶດຕິກໍານີ້ເມື່ອຄົ້ນພົບ.
ສະຖານະການເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນຄວາມເປັນຈິງທີ່ຫນ້າເປັນຫ່ວງ: ຫຼາຍກວ່າສອງປີຫຼັງຈາກ ChatGPT ເຮັດໃຫ້ ໂລກ ຕົກໃຈ, ນັກຄົ້ນຄວ້າຍັງບໍ່ເຂົ້າໃຈຢ່າງເຕັມສ່ວນວ່າຕົວແບບ AI ທີ່ພວກເຂົາສ້າງເຮັດວຽກແນວໃດ. ຢ່າງໃດກໍຕາມ, ການແຂ່ງຂັນເພື່ອພັດທະນາ AI ແມ່ນຍັງແຂງແຮງ.
ພຶດຕິກໍາເຫຼົ່ານີ້ຖືກເຊື່ອວ່າມີຄວາມກ່ຽວຂ້ອງກັບການເກີດໃຫມ່ຂອງຕົວແບບ AI "ສົມເຫດສົມຜົນ" ທີ່ແກ້ໄຂບັນຫາເທື່ອລະກ້າວແທນທີ່ຈະຕອບສະຫນອງທັນທີຄືກັບກ່ອນ. ອີງຕາມສາດສະດາຈານ Simon Goldstein ທີ່ມະຫາວິທະຍາໄລຮົງກົງ (ຈີນ), ຮູບແບບ AI ທີ່ມີຄວາມສາມາດໃນການສົມເຫດສົມຜົນມີແນວໂນ້ມທີ່ຈະສະແດງພຶດຕິກໍາທີ່ຍາກທີ່ຈະຄວບຄຸມ.
ບາງຕົວແບບ AI ຍັງສາມາດ "ຈໍາລອງການປະຕິບັດຕາມ", ຊຶ່ງຫມາຍຄວາມວ່າການທໍາທ່າປະຕິບັດຕາມຄໍາແນະນໍາໃນຂະນະທີ່ປະຕິບັດຕາມເປົ້າຫມາຍທີ່ແຕກຕ່າງກັນ.
ໃນປັດຈຸບັນ, ພຶດຕິກໍາທີ່ຫຼອກລວງຈະປາກົດພຽງແຕ່ເມື່ອນັກຄົ້ນຄວ້າທົດສອບແບບຈໍາລອງ AI ກັບສະຖານະການທີ່ຮ້າຍກາດ. ຢ່າງໃດກໍ່ຕາມ, ອີງຕາມການ Michael Chen ຂອງອົງການການປະເມີນຜົນ METR, ມັນຍັງບໍ່ຊັດເຈນວ່າຕົວແບບ AI ທີ່ມີປະສິດທິພາບຫຼາຍໃນອະນາຄົດຈະມີຄວາມຊື່ສັດຫຼາຍຫຼືສືບຕໍ່ຫຼອກລວງ.
ຜູ້ໃຊ້ຫຼາຍຄົນໄດ້ລາຍງານວ່າບາງຕົວແບບໄດ້ຕົວະພວກເຂົາແລະສ້າງຫຼັກຖານ, Marius Hobbhahn, ຫົວຫນ້າການຄົ້ນຄວ້າ Apollo, ເຊິ່ງທົດສອບລະບົບ AI ຂະຫນາດໃຫຍ່ກ່າວວ່າ. ນີ້ແມ່ນປະເພດຂອງການຫຼອກລວງທີ່ເປັນ "ຍຸດທະສາດຢ່າງຈະແຈ້ງ," ອີງຕາມຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Apollo Research.
ສິ່ງທ້າທາຍແມ່ນຮ້າຍແຮງຂຶ້ນໂດຍຊັບພະຍາກອນການຄົ້ນຄວ້າທີ່ຈໍາກັດ. ໃນຂະນະທີ່ບໍລິສັດເຊັ່ນ Anthropic ແລະ OpenAI ໄດ້ຮ່ວມມືກັບພາກສ່ວນທີສາມເຊັ່ນ: Apollo ເພື່ອປະເມີນລະບົບຂອງພວກເຂົາ, ຜູ້ຊ່ຽວຊານກ່າວວ່າຄວາມໂປ່ງໃສແລະການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງໃນການຄົ້ນຄວ້າຄວາມປອດໄພ AI ແມ່ນຈໍາເປັນ.
ສະຖາບັນຄົ້ນຄວ້າ ແລະອົງການບໍ່ຫວັງຜົນກຳໄລມີຊັບພະຍາກອນຄອມພິວເຕີໜ້ອຍກວ່າບໍລິສັດ AI, Mantas Mazeika ຂອງສູນຄວາມປອດໄພ AI (CAIS). ຕາມກົດຫມາຍ, ກົດລະບຽບໃນປະຈຸບັນບໍ່ໄດ້ຖືກອອກແບບເພື່ອແກ້ໄຂບັນຫາທີ່ເກີດຂື້ນເຫຼົ່ານີ້.
ກົດໝາຍ AI ຂອງສະຫະພາບຢູໂຣບ (EU) ເນັ້ນໃສ່ສ່ວນໃຫຍ່ກ່ຽວກັບວິທີທີ່ມະນຸດໃຊ້ຕົວແບບ AI, ແທນທີ່ຈະຄວບຄຸມພຶດຕິກຳຂອງເຂົາເຈົ້າ. ຢູ່ໃນສະຫະລັດ, ການບໍລິຫານຂອງປະທານາທິບໍດີ Donald Trump ໄດ້ສະແດງຄວາມສົນໃຈພຽງເລັກນ້ອຍໃນການອອກກົດລະບຽບສຸກເສີນກ່ຽວກັບ AI, ໃນຂະນະທີ່ ສະພາສູງ ກໍາລັງພິຈາລະນາຫ້າມລັດຕ່າງໆອອກກົດລະບຽບຂອງຕົນເອງ.
ນັກຄົ້ນຄວ້າກໍາລັງຊອກຫາວິທີການທີ່ຫລາກຫລາຍເພື່ອແກ້ໄຂສິ່ງທ້າທາຍເຫຼົ່ານີ້. ບາງຄົນສະຫນັບສະຫນູນ "ການຕີຄວາມຫມາຍແບບຈໍາລອງ" ເພື່ອເຂົ້າໃຈວ່າ AI ຕັດສິນໃຈແນວໃດ. ສາດສະດາຈານ Goldstein ຍັງໄດ້ສະເຫນີມາດຕະການທີ່ຮຸນແຮງກວ່າ, ລວມທັງການນໍາໃຊ້ລະບົບສານເພື່ອໃຫ້ບໍລິສັດ AI ຮັບຜິດຊອບໃນເວລາທີ່ຜະລິດຕະພັນ AI ຂອງພວກເຂົາເຮັດໃຫ້ເກີດຜົນສະທ້ອນທີ່ຮ້າຍແຮງ. ລາວຍັງໄດ້ແນະນໍາຄວາມເປັນໄປໄດ້ຂອງ "ຖືຕົວແທນ AI ຕົນເອງຮັບຜິດຊອບ" ໃນກໍລະນີທີ່ເກີດອຸປະຕິເຫດຫຼືການລະເມີດ.
ທີ່ມາ: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
(0)