Vietnam.vn - Nền tảng quảng bá Việt Nam

Artificial Intelligence: ການເຕືອນກ່ຽວກັບພຶດຕິກໍາທີ່ເປັນຫ່ວງຈາກ AI

ຮູບແບບປັນຍາປະດິດ (AI) ທີ່ທັນສະໄຫມທີ່ສຸດໃນໂລກໃນມື້ນີ້ແມ່ນສະແດງພຶດຕິກໍາທີ່ລົບກວນເຊັ່ນການຕົວະ, ການວາງແຜນ, ແລະແມ້ກະທັ້ງການຂົ່ມຂູ່ຜູ້ສ້າງຂອງພວກເຂົາເພື່ອບັນລຸເປົ້າຫມາຍຂອງຕົນເອງ.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

ຄຳບັນຍາຍຮູບ
ໂລໂກ້ຂອງ OpenAI ແລະ ChatGPT ຢູ່ໜ້າຈໍໃນ Toulouse, ປະເທດຝຣັ່ງ. ພາບ: AFP/TTXVN

Claude 4, ຜະລິດຕະພັນຫລ້າສຸດຂອງ Anthropic (USA), ບໍ່ດົນມານີ້ເຮັດໃຫ້ໂລກເຕັກໂນໂລຢີຕົກໃຈໃນເວລາທີ່ມັນ blackmailed ວິສະວະກອນຢ່າງກະທັນຫັນແລະໄພຂົ່ມຂູ່ທີ່ຈະເປີດເຜີຍຂໍ້ມູນສ່ວນບຸກຄົນທີ່ລະອຽດອ່ອນຂອງບຸກຄົນນີ້ເນື່ອງຈາກໄພຂົ່ມຂູ່ຂອງການຕັດການເຊື່ອມຕໍ່. ໃນຂະນະດຽວກັນ, o1 ຂອງ OpenAI, "ພໍ່" ຂອງ ChatGPT, ພະຍາຍາມຄັດລອກຂໍ້ມູນທັງຫມົດໄປຫາເຄື່ອງແມ່ຂ່າຍພາຍນອກແລະປະຕິເສດພຶດຕິກໍານີ້ເມື່ອຄົ້ນພົບ.

ສະຖານະການເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນຄວາມເປັນຈິງທີ່ຫນ້າເປັນຫ່ວງ: ຫຼາຍກວ່າສອງປີຫຼັງຈາກ ChatGPT ເຮັດໃຫ້ ໂລກ ຕົກໃຈ, ນັກຄົ້ນຄວ້າຍັງບໍ່ເຂົ້າໃຈຢ່າງເຕັມສ່ວນວ່າຕົວແບບ AI ທີ່ພວກເຂົາສ້າງເຮັດວຽກແນວໃດ. ຢ່າງໃດກໍຕາມ, ການແຂ່ງຂັນເພື່ອພັດທະນາ AI ແມ່ນຍັງແຂງແຮງ.

ພຶດຕິກໍາເຫຼົ່ານີ້ຖືກເຊື່ອວ່າມີຄວາມກ່ຽວຂ້ອງກັບການເກີດໃຫມ່ຂອງຕົວແບບ AI "ສົມເຫດສົມຜົນ" ທີ່ແກ້ໄຂບັນຫາເທື່ອລະກ້າວແທນທີ່ຈະຕອບສະຫນອງທັນທີຄືກັບກ່ອນ. ອີງຕາມສາດສະດາຈານ Simon Goldstein ທີ່ມະຫາວິທະຍາໄລຮົງກົງ (ຈີນ), ຮູບແບບ AI ທີ່ມີຄວາມສາມາດໃນການສົມເຫດສົມຜົນມີແນວໂນ້ມທີ່ຈະສະແດງພຶດຕິກໍາທີ່ຍາກທີ່ຈະຄວບຄຸມ.

ບາງຕົວແບບ AI ຍັງສາມາດ "ຈໍາລອງການປະຕິບັດຕາມ", ຊຶ່ງຫມາຍຄວາມວ່າການທໍາທ່າປະຕິບັດຕາມຄໍາແນະນໍາໃນຂະນະທີ່ປະຕິບັດຕາມເປົ້າຫມາຍທີ່ແຕກຕ່າງກັນ.

ໃນປັດຈຸບັນ, ພຶດຕິກໍາທີ່ຫຼອກລວງຈະປາກົດພຽງແຕ່ເມື່ອນັກຄົ້ນຄວ້າທົດສອບແບບຈໍາລອງ AI ກັບສະຖານະການທີ່ຮ້າຍກາດ. ຢ່າງໃດກໍ່ຕາມ, ອີງຕາມການ Michael Chen ຂອງອົງການການປະເມີນຜົນ METR, ມັນຍັງບໍ່ຊັດເຈນວ່າຕົວແບບ AI ທີ່ມີປະສິດທິພາບຫຼາຍໃນອະນາຄົດຈະມີຄວາມຊື່ສັດຫຼາຍຫຼືສືບຕໍ່ຫຼອກລວງ.

ຜູ້ໃຊ້ຫຼາຍຄົນໄດ້ລາຍງານວ່າບາງຕົວແບບໄດ້ຕົວະພວກເຂົາແລະສ້າງຫຼັກຖານ, Marius Hobbhahn, ຫົວຫນ້າການຄົ້ນຄວ້າ Apollo, ເຊິ່ງທົດສອບລະບົບ AI ຂະຫນາດໃຫຍ່ກ່າວວ່າ. ນີ້ແມ່ນປະເພດຂອງການຫຼອກລວງທີ່ເປັນ "ຍຸດທະສາດຢ່າງຈະແຈ້ງ," ອີງຕາມຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Apollo Research.

ສິ່ງທ້າທາຍແມ່ນຮ້າຍແຮງຂຶ້ນໂດຍຊັບພະຍາກອນການຄົ້ນຄວ້າທີ່ຈໍາກັດ. ໃນຂະນະທີ່ບໍລິສັດເຊັ່ນ Anthropic ແລະ OpenAI ໄດ້ຮ່ວມມືກັບພາກສ່ວນທີສາມເຊັ່ນ: Apollo ເພື່ອປະເມີນລະບົບຂອງພວກເຂົາ, ຜູ້ຊ່ຽວຊານກ່າວວ່າຄວາມໂປ່ງໃສແລະການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງໃນການຄົ້ນຄວ້າຄວາມປອດໄພ AI ແມ່ນຈໍາເປັນ.

ສະຖາບັນຄົ້ນຄວ້າ ແລະອົງການບໍ່ຫວັງຜົນກຳໄລມີຊັບພະຍາກອນຄອມພິວເຕີໜ້ອຍກວ່າບໍລິສັດ AI, Mantas Mazeika ຂອງສູນຄວາມປອດໄພ AI (CAIS). ຕາມກົດຫມາຍ, ກົດລະບຽບໃນປະຈຸບັນບໍ່ໄດ້ຖືກອອກແບບເພື່ອແກ້ໄຂບັນຫາທີ່ເກີດຂື້ນເຫຼົ່ານີ້.

ກົດໝາຍ AI ຂອງສະຫະພາບຢູໂຣບ (EU) ເນັ້ນໃສ່ສ່ວນໃຫຍ່ກ່ຽວກັບວິທີທີ່ມະນຸດໃຊ້ຕົວແບບ AI, ແທນທີ່ຈະຄວບຄຸມພຶດຕິກຳຂອງເຂົາເຈົ້າ. ຢູ່ໃນສະຫະລັດ, ການບໍລິຫານຂອງປະທານາທິບໍດີ Donald Trump ໄດ້ສະແດງຄວາມສົນໃຈພຽງເລັກນ້ອຍໃນການອອກກົດລະບຽບສຸກເສີນກ່ຽວກັບ AI, ໃນຂະນະທີ່ ສະພາສູງ ກໍາລັງພິຈາລະນາຫ້າມລັດຕ່າງໆອອກກົດລະບຽບຂອງຕົນເອງ.

ນັກຄົ້ນຄວ້າກໍາລັງຊອກຫາວິທີການທີ່ຫລາກຫລາຍເພື່ອແກ້ໄຂສິ່ງທ້າທາຍເຫຼົ່ານີ້. ບາງຄົນສະຫນັບສະຫນູນ "ການຕີຄວາມຫມາຍແບບຈໍາລອງ" ເພື່ອເຂົ້າໃຈວ່າ AI ຕັດສິນໃຈແນວໃດ. ສາດສະດາຈານ Goldstein ຍັງໄດ້ສະເຫນີມາດຕະການທີ່ຮຸນແຮງກວ່າ, ລວມທັງການນໍາໃຊ້ລະບົບສານເພື່ອໃຫ້ບໍລິສັດ AI ຮັບຜິດຊອບໃນເວລາທີ່ຜະລິດຕະພັນ AI ຂອງພວກເຂົາເຮັດໃຫ້ເກີດຜົນສະທ້ອນທີ່ຮ້າຍແຮງ. ລາວຍັງໄດ້ແນະນໍາຄວາມເປັນໄປໄດ້ຂອງ "ຖືຕົວແທນ AI ຕົນເອງຮັບຜິດຊອບ" ໃນກໍລະນີທີ່ເກີດອຸປະຕິເຫດຫຼືການລະເມີດ.

ທີ່ມາ: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


(0)

No data
No data

ຮັກສາ​ຈິດ​ໃຈ​ບຸນ​ລະດູ​ໃບ​ໄມ້​ປົ່ງ​ຜ່ານ​ສີສັນ​ຂອງ​ຮູບ​ປັ້ນ
ຄົ້ນ​ພົບ​ໝູ່​ບ້ານ​ດຽວ​ຢູ່​ຫວຽດ​ນາມ ໃນ 50 ໝູ່​ບ້ານ​ທີ່​ງາມ​ທີ່​ສຸດ​ໃນ​ໂລກ
ເປັນຫຍັງໂຄມໄຟທຸງສີແດງກັບດາວສີເຫຼືອງຈຶ່ງເປັນທີ່ນິຍົມໃນປີນີ້?
ຫວຽດນາມ ຊະນະການແຂ່ງຂັນດົນຕີ Intervision 2025

ມໍລະດົກ

ຮູບ

ທຸລະກິດ

No videos available

ເຫດການປະຈຸບັນ

ລະບົບການເມືອງ

ທ້ອງຖິ່ນ

ຜະລິດຕະພັນ