Vietnam.vn - Nền tảng quảng bá Việt Nam

ຄວາມສ່ຽງຂອງ 'ການເສື່ອມສະພາບທາງຈິດ' ເນື່ອງຈາກການລ່ວງລະເມີດ AI

DNVN - ການສຶກສາທີ່ຜ່ານມາໄດ້ສົ່ງສຽງເຕືອນກ່ຽວກັບຜົນສະທ້ອນທີ່ບໍ່ສາມາດຄາດເດົາໄດ້ໃນເວລາທີ່ມະນຸດນັບມື້ນັບຂຶ້ນກັບ Artificial Intelligence (AI), ໂດຍສະເພາະຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLM) ເຊັ່ນ ChatGPT.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp01/10/2025

Ảnh minh họa.

ຮູບປະກອບ.

AI ມີ​ຢູ່​ໃນ​ເກືອບ​ທຸກ​ດ້ານ​ຂອງ​ຊີ​ວິດ​ຂອງ​ມະ​ນຸດ​, ຈາກ​ຊີ​ວິດ​ປະ​ຈໍາ​ວັນ​ເພື່ອ​ການ​ຜະ​ລິດ​, ການ​ສຶກ​ສາ ​, ການ​ຄົ້ນ​ຄວ້າ​, ແລະ​ການ​ສ້າງ​ສິ​ລະ​ປະ​. AI ຊ່ວຍໃຫ້ປະຊາຊົນເພີ່ມປະສິດທິພາບກິດຈະກໍາຂອງເຂົາເຈົ້າ, ເພີ່ມຜົນຜະລິດ, ແລະຫຼຸດຜ່ອນຊັບພະຍາກອນມະນຸດ. ການລະເບີດຂອງ AI ໄດ້ສະແດງໃຫ້ເຫັນການຂະຫຍາຍຕົວຢ່າງຕໍ່ເນື່ອງຂອງຄໍາຮ້ອງສະຫມັກການຮຽນຮູ້ເຄື່ອງຈັກແລະເຕັກໂນໂລຢີຂໍ້ມູນໃຫຍ່, ຊຸກຍູ້ປັນຍາປະດິດໄປສູ່ລະດັບໃຫມ່ຂອງການພັດທະນາ.

ເຖິງວ່າຈະມີຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງເຫຼົ່ານີ້, AI ມີຄວາມສ່ຽງຕໍ່ການຫັນຂະບວນການສ້າງຄວາມຮູ້ໄປສູ່ວົງປິດ, ຂົ່ມຂູ່ຄວາມຄິດສ້າງສັນແລະເຮັດໃຫ້ເກີດ "ຄວາມເສື່ອມໂຊມ" ຂອງແນວຄິດຂອງມະນຸດ.

ຜູ້ຊ່ຽວຊານກ່າວວ່າຄວາມສະດວກສະບາຍໃນການນໍາໃຊ້ AI ອາດຈະມາຈາກຄ່າໃຊ້ຈ່າຍທາງປັນຍາໃນໄລຍະຍາວ.

ຄວາມຜິດປົກກະຕິຂອງສະໝອງ ແລະ “ໜີ້ສິນທາງປັນຍາ”

ການສຶກສາສີ່ເດືອນໂດຍ Massachusetts Institute of Technology (MIT) ໄດ້ສ່ອງແສງກ່ຽວກັບຜົນກະທົບອັນເລິກເຊິ່ງຂອງການໃຊ້ AI ຫຼາຍເກີນໄປໃນສະຫມອງຂອງມະນຸດ. ການສຶກສາ, ເຊິ່ງໄດ້ຕິດຕາມຜູ້ເຂົ້າຮ່ວມຂຽນ 54 ຄົນ, ພົບວ່າການອີງໃສ່ເຄື່ອງມື AI ສາມາດທໍາລາຍການເຮັດວຽກຂອງສະຫມອງແລະທັກສະການຄິດທີ່ສໍາຄັນ.

ການນໍາໃຊ້ເຕັກໂນໂລຊີ electroencephalography (EEG), ນັກຄົ້ນຄວ້າໄດ້ບັນທຶກກິດຈະກໍາສະຫມອງຂອງຜູ້ເຂົ້າຮ່ວມ. ຜົນໄດ້ຮັບທີ່ໂດດເດັ່ນ: ກຸ່ມທີ່ໃຊ້ເຄື່ອງມື AI ສະແດງໃຫ້ເຫັນຮູບແບບ neural ທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍກ່ວາກຸ່ມທີ່ຂຽນດ້ວຍໃຈຂອງພວກເຂົາເທົ່ານັ້ນ. ກຸ່ມນີ້ສະແດງໃຫ້ເຫັນເຖິງ 55% ການເຊື່ອມຕໍ່ neural ຫນ້ອຍກ່ວາກຸ່ມທີ່ຂຽນພຽງແຕ່ດ້ວຍຈິດໃຈຂອງເຂົາເຈົ້າ, ໂດຍສະເພາະໃນເຂດທີ່ຮັບຜິດຊອບສໍາລັບການຄິດເລິກແລະຄວາມຈໍາ.

ນັກຄົ້ນຄວ້າເອີ້ນປະກົດການນີ້ວ່າ "ໜີ້ສິນທາງປັນຍາ." ຄ້າຍຄືກັນກັບໜີ້ສິນທາງດ້ານການເງິນ, ເຊິ່ງອະນຸຍາດໃຫ້ພວກເຮົາໄດ້ຮັບຜົນປະໂຫຍດໃນປັດຈຸບັນແຕ່ຈ່າຍຄ່າໃຊ້ຈ່າຍຕໍ່ມາ, ຫນີ້ສິນຂອງສະຕິປັນຍາເກີດຂື້ນເມື່ອພວກເຮົາ outsource ຄວາມພະຍາຍາມທາງດ້ານຈິດໃຈຂອງພວກເຮົາໄປສູ່ລະບົບພາຍນອກ, ເຮັດໃຫ້ກ້າມຊີ້ນທາງຈິດຂອງພວກເຮົາຫົດຕົວຍ້ອນການບໍ່ໃຊ້. ຖ້າໃຊ້ຫຼາຍເກີນໄປ, AI ສາມາດເຮັດໃຫ້ມະນຸດກາຍເປັນຜູ້ບໍລິໂພກຕົວຕັ້ງຕົວຕີ, ສູນເສຍຄວາມສາມາດໃນການຄິດທີ່ເປັນເອກະລາດ.

ຜົນສະທ້ອນຂອງການປະຕິບັດທາງດ້ານສະຕິປັນຍາຫຼຸດລົງແມ່ນຈະແຈ້ງ:

ຄວາມບົກຜ່ອງດ້ານຄວາມຊົງຈໍາ : ໃນກອງປະຊຸມທໍາອິດຂອງການສຶກສາ MIT, 83% ຂອງຜູ້ໃຊ້ AI ບໍ່ສາມາດອ້າງອີງຈາກການຂຽນຂອງຕົນເອງ, ແລະບໍ່ມີໃຜສາມາດສະຫນອງການອ້າງອີງທີ່ຖືກຕ້ອງ. ເຖິງແມ່ນວ່າຫຼັງຈາກກອງປະຊຸມຫຼາຍຄັ້ງ, ຫຼາຍຄົນຍັງຕໍ່ສູ້ກັບວຽກງານພື້ນຖານນີ້.

ການຄິດວິພາກວິຈານທີ່ອ່ອນແອ : ການໃຊ້ AI ນໍາໄປສູ່ "ການມີສ່ວນພົວພັນແບບພິເສດ" ແລະເຮັດໃຫ້ທັກສະການຄິດວິພາກວິຈານອ່ອນລົງ, ເຊິ່ງສາມາດເຮັດໃຫ້ການເລື່ອນເວລາແລະ "ຄວາມຂີ້ຄ້ານ."

ກິດຈະກໍາຂອງສະຫມອງຫຼຸດລົງ : ຜູ້ທີ່ຂຽນບົດເລື່ອງຂອງເຂົາເຈົ້າດ້ວຍການຊ່ວຍເຫຼືອ AI ມີການເຄື່ອນໄຫວຂອງສະຫມອງຫນ້ອຍລົງຢ່າງຫຼວງຫຼາຍ, ໂດຍມີພາກພື້ນທີ່ກ່ຽວຂ້ອງກັບຄວາມຊົງຈໍາ, ການຄິດທີ່ສໍາຄັນ, ແລະຫນ້າທີ່ບໍລິຫານຫຼຸດລົງຢ່າງຫຼວງຫຼາຍ.

ວິກິດການຂອງການສ້າງຄວາມຮູ້ແລະ "ການລົ້ມລົງຂອງ paradigm"

ບັນຫາກັບ LLMs ບໍ່ແມ່ນຄວາມສາມາດໃນການສັງເຄາະ, ແຕ່ຄວາມສາມາດຂອງເຂົາເຈົ້າທີ່ຈະເອົາມາໃຊ້ຄືນສິ່ງທີ່ມີຢູ່ແລ້ວ. ລະບົບເຫຼົ່ານີ້ບໍ່ໄດ້ສ້າງຄວາມຮູ້ໃຫມ່, ແຕ່ແທນທີ່ຈະບໍລິໂພກຂໍ້ມູນທີ່ມີຢູ່ແລ້ວແລະແຈກຢາຍມັນຄືນໃຫມ່.

ບໍ່ເຫມືອນກັບມະນຸດ, ຜູ້ທີ່ສະເຫມີຊອກຫາທິດທາງໃຫມ່ສໍາລັບຫຼາຍເຫດຜົນເຊັ່ນ: ເງິນ, ຊື່ສຽງ, ຄວາມຢາກຮູ້ຢາກເຫັນຫຼືຄວາມປາຖະຫນາທີ່ຈະເອົາຊະນະຄວາມຮູ້, AI ບໍ່ສາມາດຜະລິດ "ສິ່ງໃຫມ່". ເມື່ອ AI ສາມາດຕອບເກືອບທຸກຄໍາຖາມທີ່ສັບສົນໃນເວລາພຽງແຕ່ສອງສາມວິນາທີ, ລາງວັນສໍາລັບຄວາມຄິດສ້າງສັນຂອງມະນຸດຈະຄ່ອຍໆຫາຍໄປ.

ການສູນເສຍແຮງຈູງໃຈນີ້ໄດ້ຖືກສະແດງໃຫ້ເຫັນໂດຍກໍລະນີຂອງ Stack Overflow, ເວທີສົນທະນາທີ່ນັກຂຽນໂປລແກລມແບ່ງປັນຄວາມຮູ້: ໃນເວລາພຽງ 6 ເດືອນຫຼັງຈາກ ChatGPT ປາກົດ, ຈໍານວນຄໍາຖາມໃນເວທີຫຼຸດລົງຫຼາຍກວ່າ 25%, ແລະໃນປັດຈຸບັນມັນຫຼຸດລົງເຖິງ 90%. ນີ້ແມ່ນການສູນເສຍ "ພື້ນຖານຄວາມຮູ້ທີ່ມີຊີວິດ", ເຊິ່ງແຕ່ລະຄໍາຕອບແມ່ນຖືກກວດສອບ, ໂຕ້ວາທີແລະເພີ່ມເຕີມ.

ຂໍ້ມູນຈາກແພລະຕະຟອມເຊັ່ນ Stack Overflow ໄດ້ຖືກນໍາໃຊ້ມາດົນນານເພື່ອຝຶກອົບຮົມເຄື່ອງມື AI. ໃນຂະນະທີ່ແຫຼ່ງຄວາມຮູ້ນີ້ແຫ້ງແລ້ງ, AI ຈະເຮັດຊ້ໍາສິ່ງທີ່ມັນຜະລິດແລ້ວ.

ປະກົດການນີ້ເອີ້ນວ່າ "ການລົ້ມລົງແບບຈໍາລອງ." ນັກຄົ້ນຄວ້າເຕືອນວ່າເມື່ອຕົວແບບຕ່າງໆໄດ້ຮັບການຝຶກອົບຮົມຕົ້ນຕໍກ່ຽວກັບຂໍ້ມູນທີ່ສ້າງຂຶ້ນໂດຍ AI ເອງ, ຄຸນນະພາບຂອງຄວາມຮູ້ຄ່ອຍໆຫຼຸດລົງ, ສູນເສຍຄວາມສາມາດໃນການສະທ້ອນຄວາມຫຼາກຫຼາຍແລະຄວາມຖືກຕ້ອງຂອງ ໂລກ ທີ່ແທ້ຈິງ. ສາດສະດາຈານ Hannah Li ຈາກມະຫາວິທະຍາໄລ Columbia ສະຫຼຸບວ່າ "ຜົນໄດ້ຮັບໂດຍລວມແມ່ນພວກເຂົາຮ້າຍແຮງຂຶ້ນ.

ຄວາມສ່ຽງຂອງການເປັນ homogenization ແລະການນໍາມາໃຊ້ໃຫມ່ຂອງຄວາມຮູ້

ນອກ ເໜືອ ໄປຈາກການຫຼຸດລົງຂອງສະຕິປັນຍາຂອງບຸກຄົນ, ການໃຊ້ AI ທີ່ບໍ່ຖືກຕ້ອງຍັງ ນຳ ໄປສູ່ຄວາມເປັນເອກະພາບຂອງຄວາມຮູ້. ບົດຂຽນທີ່ຂຽນໂດຍການຊ່ວຍເຫຼືອຂອງ AI ແມ່ນຄ້າຍຄືກັນຢ່າງຫຼວງຫຼາຍ, ແນະນໍາຮູບແບບ "ຄວາມຄ້າຍຄືກັນທາງສະຖິຕິ". ອັນນີ້ສ້າງວັດທະນະ ທຳ ປັນຍາຊົນທີ່ມີທັດສະນະທີ່ຫຼາກຫຼາຍຂອງມະນຸດຖືກກັ່ນຕອງຜ່ານເລນ algorithmic ດຽວກັນ, ເຊິ່ງອາດຈະຂັດຂວາງຄວາມຫຼາກຫຼາຍດ້ານສ້າງສັນ.

AI ມັກຈະເນັ້ນໃສ່ຮູບແບບທົ່ວໄປໃນຂໍ້ມູນ ແລະຄ່ອຍໆບໍ່ສົນໃຈຂໍ້ມູນຫາຍາກ, ລາຍລະອຽດທີ່ເປັນເອກະລັກ ຫຼືຂໍ້ມູນທີ່ຢູ່ໃນເງົາທາງສະຖິຕິ. ຖ້າທ່າອ່ຽງນີ້ຍັງສືບຕໍ່, ອິນເຕີເນັດ, ເຊິ່ງເປັນບ່ອນເກັບມ້ຽນຂໍ້ມູນທີ່ອຸດົມສົມບູນ, ມີຄວາມສ່ຽງກາຍເປັນໂລກທີ່ມົວບ່ອນທີ່ຄວາມຮູ້ຈະເຈືອຈາງ. ມະນຸດສາມາດເຂົ້າສູ່ໄລຍະຂອງ “ການນຳມາໃຊ້ໃໝ່ຄວາມຮູ້”, ບ່ອນທີ່ນະວັດຕະກໍາຢຸດສະງັກລົງ ເມື່ອລາງວັນສໍາລັບການສ້າງໃໝ່ນັບມື້ນັບມືດມົວ.

AI ເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບ, ແຕ່ມັນຮຽກຮ້ອງໃຫ້ມີວິທີການຍຸດທະສາດ. ນັກຄົ້ນຄວ້າ MIT ໄດ້ພົບເຫັນສັນຍານໃນທາງບວກ: ຜູ້ເຂົ້າຮ່ວມທີ່ໄດ້ພັດທະນາພື້ນຖານທາງດ້ານສະຕິປັນຍາທີ່ຫນັກແຫນ້ນກ່ອນທີ່ຈະນໍາໃຊ້ AI ສາມາດນໍາໃຊ້ໄດ້ຢ່າງມີປະສິດທິພາບ, ແລະເຖິງແມ່ນວ່າໄດ້ສະແດງໃຫ້ເຫັນກິດຈະກໍາທາງ neural ເພີ່ມຂຶ້ນເມື່ອນໍາສະເຫນີເຄື່ອງມື. ພວກເຂົາໃຊ້ AI ເປັນຜູ້ຊ່ວຍທີ່ແທ້ຈິງ, ບໍ່ແມ່ນເຄື່ອງມືສະຫນັບສະຫນູນ.

ຄວາມຮູ້ຂອງມະນຸດແມ່ນສ້າງຂຶ້ນມາຈາກຄວາມພະຍາຍາມ, ຄວາມຢາກຮູ້ຢາກເຫັນ, ແລະຄວາມກ້າຫານທີ່ຈະເຂົ້າໄປໃນສິ່ງທີ່ບໍ່ຮູ້. ຢ່າງໃດກໍຕາມ, ຖ້າ AI ກາຍເປັນ "ທາງລົດໄຟ", ພວກເຮົາມີຄວາມສ່ຽງຕໍ່ການຖືກນໍາໄປສູ່ວົງຈອນອັນໂຫດຮ້າຍທີ່ທັງມະນຸດແລະເຄື່ອງຈັກຖືກປະໄວ້ເພື່ອເຮັດຊ້ໍາສິ່ງທີ່ໄດ້ເຮັດແລ້ວ.

ຮິນທາ

ທີ່ມາ: https://doanhnghiepvn.vn/cong-nghe/nguy-co-thoai-hoa-tu-duy-vi-lam-dung-ai/20250928033804291


(0)

No data
No data

ໃຊ້ເວລາຫຼາຍລ້ານເພື່ອຮຽນຮູ້ການຈັດດອກໄມ້, ຊອກຫາປະສົບການຄວາມຜູກພັນໃນງານບຸນກາງດູໃບໄມ້ລົ່ນ
ມີ​ພູ​ດອກ​ຊິມ​ສີ​ມ່ວງ​ຢູ່​ເທິງ​ທ້ອງ​ຟ້າ​ຂອງ​ເຊີນ​ລາ
ຫຼົງ​ໃນ​ການ​ລ່າ​ສັດ​ຟັງ​ໃນ Ta Xua​
ຄວາມ​ງາມ​ຂອງ​ອ່າວ ຮ່າ​ລອງ ໄດ້​ຮັບ​ການ​ຮັບ​ຮອງ​ເປັນ​ມໍ​ລະ​ດົກ​ຂອງ UNESCO 3 ຄັ້ງ.

ມໍລະດົກ

;

ຮູບ

;

ທຸລະກິດ

;

No videos available

ເຫດການປະຈຸບັນ

;

ລະບົບການເມືອງ

;

ທ້ອງຖິ່ນ

;

ຜະລິດຕະພັນ

;