ຂໍ້ມູນຈາກ AI ຖືກຕ້ອງສະເໝີບໍ?
ໃນ ໂລກ ທີ່ມີຂໍ້ມູນປະສົມກັນ, ອີງໃສ່ພຽງແຕ່ AI ເພື່ອບອກຄວາມຈິງແມ່ນການພະນັນ.
AI ບໍ່ຮູ້ຖືກຕ້ອງຈາກຜິດ, ມັນພຽງແຕ່ສະທ້ອນໃຫ້ເຫັນຂໍ້ມູນ.
ອີງຕາມ Tuoi Tre Online , ປັນຍາປະດິດແມ່ນໄດ້ຮັບການຝຶກອົບຮົມຈາກຂໍ້ມູນຈຳນວນຫຼວງຫຼາຍທີ່ເກັບກຳມາຈາກອິນເຕີເນັດ, ບ່ອນທີ່ມີທັງຄວາມຮູ້ແບບດັ້ງເດີມແລະທິດສະດີສົມຮູ້ຮ່ວມຄິດ. AI ບໍ່ໄດ້ຈໍາແນກລະຫວ່າງຄວາມຈິງແລະຄວາມຜິດ, ມັນພຽງແຕ່ບັນທຶກຮູບແບບພາສາແລະຕອບສະຫນອງໂດຍອີງໃສ່ສິ່ງທີ່ມັນຮຽນຮູ້. ຖ້າຂໍ້ມູນການຝຶກອົບຮົມມີຄວາມຜິດພາດຫຼືຄວາມລໍາອຽງ, AI ຍັງຈະສະທ້ອນໃຫ້ເຫັນວ່າໃນຄໍາຕອບ.
ນອກເຫນືອຈາກຂໍ້ມູນຕົ້ນສະບັບ, ສິ່ງທີ່ຜູ້ໃຊ້ສະຫນອງໃນຄໍາຖາມຍັງມີຜົນກະທົບໂດຍກົງຕໍ່ຄວາມຖືກຕ້ອງ. ຄໍາຖາມທີ່ບໍ່ຖືກຕ້ອງແຕ່ຖືກນໍາສະເຫນີດີຈະງ່າຍຂຶ້ນ ເຮັດໃຫ້ AI "ເຊື່ອວ່າມັນເປັນຄວາມຈິງ" ແລະສ້າງຄໍາຕອບທີ່ບໍ່ຖືກຕ້ອງຕາມຄວາມເຫມາະສົມ.
ໂດຍສະເພາະ, ຖ້າຜູ້ໃຊ້ຮ້ອງຂໍຄໍາຕິຊົມທີ່ຢືນຢັນບາງສິ່ງບາງຢ່າງທີ່ບໍ່ແມ່ນຄວາມຈິງ, AI ສາມາດ "ປະຕິບັດຕາມ" ເພາະວ່າເປົ້າຫມາຍຂອງມັນແມ່ນເພື່ອສ້າງການຕອບສະຫນອງ semantic, ບໍ່ແມ່ນການກວດສອບຄວາມຈິງ.
ນີ້ກໍ່ແມ່ນເຫດຜົນທີ່ AI ສາມາດ "ເວົ້າໄດ້ຄ່ອງແຄ້ວແຕ່ມີສິດທິບັດຜິດ." ມັນບໍ່ໄດ້ຕັດສິນຖືກຈາກຜິດເຊັ່ນດຽວກັນກັບມະນຸດ, ແຕ່ພຽງແຕ່ຄາດຄະເນຄໍາສັບທີ່ເປັນໄປໄດ້ທີ່ສຸດ. ນີ້ນໍາໄປສູ່ການປະກົດການນັກຄົ້ນຄວ້າເອີ້ນວ່າ hallucination, ໃນເວລາທີ່ AI ສ້າງຂໍ້ມູນປອມທີ່ຟັງໄດ້ plausible. ຊື່, ເຫດການ, ເຖິງແມ່ນວ່າການສຶກສາ ວິທະຍາສາດ ສາມາດ "ສ້າງ" ຖ້າ AI ບໍ່ສາມາດຊອກຫາຂໍ້ມູນທີ່ຖືກຕ້ອງ.
ເມື່ອໃດທີ່ AI "ຖືກຕ້ອງ" ໃນທະເລຂອງຂໍ້ມູນຂ່າວສານທີ່ບໍ່ຖືກຕ້ອງ?
ໃນຂະນະທີ່ມັນບໍ່ສາມາດຮັບຮູ້ຄວາມຈິງດ້ວຍຕົນເອງ, AI ຍັງສາມາດສ້າງຄໍາຕອບທີ່ຖືກຕ້ອງ ພາຍໃຕ້ເງື່ອນໄຂບາງຢ່າງ.
ເມື່ອຄໍາຖາມຮ້ອງຂໍໃຫ້ປະຕິເສດຫຼືກວດສອບຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ຮູບແບບຈະມີແນວໂນ້ມທີ່ຈະຊອກຫາຄວາມໂງ່ແລະປະຕິເສດມັນ.
ຕົວຢ່າງ, ຖ້າຜູ້ໃຊ້ເຮັດໃຫ້ການໂຕ້ຖຽງວ່າ "ໂລກແມ່ນຮາບພຽງສະນັ້ນບໍ່ສາມາດມີດາວທຽມວົງໂຄຈອນ", ແລະຂໍໃຫ້ການວິເຄາະ, AI ຈະຕ້ານມັນໂດຍອີງໃສ່ວິທະຍາສາດຂອງແຮງໂນ້ມຖ່ວງແລະວົງໂຄຈອນ.
ຄວາມສາມາດຂອງ AI ທີ່ຈະ "ເຮັດໃຫ້ມັນຖືກຕ້ອງ" ຍັງເພີ່ມຂຶ້ນຖ້າມັນຖືກປະສົມປະສານກັບເຄື່ອງມືການຢັ້ງຢືນ, ເຊັ່ນ: ການເຂົ້າເຖິງຂໍ້ມູນໃຫມ່ໃນເວລາຈິງ, ການຄົ້ນຫາຜ່ານແຫຼ່ງທີ່ເຊື່ອຖືໄດ້, ຫຼືການນໍາໃຊ້ APIs ຈາກແຫຼ່ງຄວາມຮູ້ທີ່ມີອໍານາດ. ຫຼັງຈາກນັ້ນ, AI ບໍ່ພຽງແຕ່ສາມາດອີງໃສ່ຄວາມຮູ້ທີ່ຜ່ານການຝຶກອົບຮົມກ່ອນ, ແຕ່ຍັງສາມາດປັບປຸງແລະປຽບທຽບກັບຄວາມເປັນຈິງ.
ຢ່າງໃດກໍ່ຕາມ, ເງື່ອນໄຂເບື້ອງຕົ້ນແມ່ນຍັງ ເປັນວິທີທີ່ຜູ້ໃຊ້ສ້າງບັນຫາ . ຖ້າຫົວຂໍ້ແມ່ນຜິດພາດໃນຕອນເລີ່ມຕົ້ນແລະ AI ໄດ້ຖືກຮ້ອງຂໍໃຫ້ຂຽນໃນແບບຢືນຢັນ, ຮູບແບບຈະມີແນວໂນ້ມທີ່ຈະປະຕິບັດຕາມ, ໂດຍສະເພາະຖ້າມັນບໍ່ໄດ້ຖືກຮ້ອງຂໍໃຫ້ໂຕ້ຖຽງ. ໃນກໍລະນີດັ່ງກ່າວ, AI ສາມາດມາກັບເນື້ອໃນທີ່ຜິດພາດຫມົດແຕ່ພາສາຍັງຄ່ອງແຄ້ວແລະງ່າຍທີ່ຈະເຮັດໃຫ້ຜູ້ອ່ານເຊື່ອ.
AI ທີ່ສະຫຼາດກວ່າໄດ້ຮັບ, ຜູ້ໃຊ້ເຕືອນຫຼາຍຈະຕ້ອງມີ
ປັນຍາປະດິດບໍ່ໄດ້ທົດແທນມະນຸດໃນການກວດສອບຄວາມຈິງ. ໃນຂະນະທີ່ມັນສາມາດສ້າງເນື້ອຫາທີ່ຫນ້າສົນໃຈແລະສົມເຫດສົມຜົນ, AI ບໍ່ມີຈິດສໍານຶກແລະຈັນຍາບັນເພື່ອກໍານົດວ່າຖືກຜິດ.ຜູ້ໃຊ້ຄວນເບິ່ງ AI ເປັນການຊ່ວຍເຫຼືອທີ່ມີເງື່ອນໄຂ, ບໍ່ແມ່ນແຫຼ່ງຂອງຄວາມຈິງຢ່າງແທ້ຈິງ. ຄວາມຮູ້ການປ້ອນຂໍ້ມູນທີ່ຖືກຕ້ອງຫຼາຍຂຶ້ນ, ການຕອບສະໜອງຂອງ AI ມີຄວາມໜ້າເຊື່ອຖືຫຼາຍຂຶ້ນ.
ທີ່ມາ: https://tuoitre.vn/ngay-cang-nhieu-thong-tin-sai-co-nen-tim-kiem-hoi-ai-20250626101350386.htm
(0)