ການລະເບີດຂອງປັນຍາປະດິດ (AI) ໄດ້ນໍາເອົາທ່າອ່ຽງທີ່ຊັດເຈນ: ຄວາມລໍາອຽງໃນລະບົບການຮຽນຮູ້ເຄື່ອງຈັກໃນການຝຶກອົບຮົມເຮັດໃຫ້ພຶດຕິກໍາຈໍາແນກຢູ່ໃນ ໂລກ ທີ່ແທ້ຈິງ.
ການສຶກສາທີ່ຜ່ານມາໂດຍກຸ່ມ ນັກວິທະຍາສາດ ໃນອັງກິດແລະຈີນສະແດງໃຫ້ເຫັນວ່າຊອບແວກວດຈັບຄົນຍ່າງທາງທີ່ຕິດຕັ້ງຢູ່ໃນຍານພາຫະນະທີ່ຂັບລົດດ້ວຍຕົນເອງ - ເຊິ່ງຖືກນໍາໃຊ້ໂດຍຜູ້ຜະລິດລົດໃຫຍ່ຈໍານວນຫຼາຍ - ອາດຈະມີປະສິດທິພາບຫນ້ອຍລົງເມື່ອຄົນທີ່ມີສີຜິວຫຼືເດັກນ້ອຍ, ເຊິ່ງເຮັດໃຫ້ຄົນເຫຼົ່ານີ້ມີຄວາມສ່ຽງຫຼາຍເມື່ອເຂົ້າຮ່ວມການຈະລາຈອນ.
ເຖິງແມ່ນວ່າບົດບາດຍິງຊາຍສະແດງໃຫ້ເຫັນພຽງແຕ່ຄວາມແຕກຕ່າງຂະຫນາດນ້ອຍໃນຄວາມຖືກຕ້ອງ, ນັກຄົ້ນຄວ້າໄດ້ພົບເຫັນວ່າລະບົບ AI ແມ່ນມີຄວາມຖືກຕ້ອງຫນ້ອຍໃນການຮັບຮູ້ຄົນຍ່າງທາງທີ່ມີໂຕນຜິວຫນັງຊ້ໍາ.
ທ່ານ Jie Zhang, ນັກວິທະຍາສາດຄອມພິວເຕີຂອງ King's College London ແລະສະມາຊິກຂອງທີມງານຄົ້ນຄ້ວາກ່າວວ່າ "ບຸກຄົນຊົນເຜົ່າສ່ວນນ້ອຍທີ່ຖືກປະຕິເສດການບໍລິການທີ່ສໍາຄັນຫຼາຍໃນປັດຈຸບັນແມ່ນປະເຊີນກັບຄວາມສ່ຽງຕໍ່ອຸປະຕິເຫດທີ່ຮ້າຍແຮງ".
ໂດຍສະເພາະ, ບົດລາຍງານໄດ້ສັງເກດເຫັນວ່າລະບົບມີ 19.67% ມັກຈະກວດພົບຜູ້ໃຫຍ່ກ່ວາເດັກນ້ອຍ, ແລະ 7.52% ມີແນວໂນ້ມທີ່ຈະກວດພົບຜູ້ທີ່ມີຜິວຫນັງຊ້ໍາ.
ທີມງານຂຽນໃນເອກະສານຂອງພວກເຂົາວ່າ "ໂດຍລວມແລ້ວ, ການຄົ້ນຄວ້ານີ້ສະແດງໃຫ້ເຫັນເຖິງບັນຫາຄວາມຍຸຕິທໍາທີ່ກໍາລັງປະເຊີນກັບລະບົບການກວດພົບຄົນຍ່າງທາງໃນຂະນະນີ້, ເນັ້ນຫນັກເຖິງຄວາມສໍາຄັນຂອງການແກ້ໄຂຄວາມລໍາອຽງກ່ຽວກັບອາຍຸແລະຜິວຫນັງ," ທີມງານຂຽນໃນເອກະສານຂອງພວກເຂົາ. "ຄວາມເຂົ້າໃຈທີ່ໄດ້ຮັບສາມາດປູທາງໄປສູ່ລະບົບການຂັບຂີ່ອັດຕະໂນມັດທີ່ຍຸດຕິທໍາແລະບໍ່ມີອະຄະຕິຫຼາຍຂຶ້ນໃນອະນາຄົດ."
ອີງຕາມສະມາຊິກຂອງທີມງານຄົ້ນຄ້ວາ, ບົດລາຍງານຂອງພວກເຂົາບໍ່ໄດ້ໃຊ້ຊອບແວທີ່ແນ່ນອນທີ່ບໍລິສັດເຊັ່ນ Tesla ຕິດຕັ້ງຢູ່ໃນລົດຂອງພວກເຂົາ, ເພາະວ່ານີ້ແມ່ນຄວາມລັບທາງການຄ້າ, ແທນທີ່ຈະເປັນການຄົ້ນຄວ້າແມ່ນອີງໃສ່ AIs ເປີດທີ່ຄ້າຍຄືກັນທີ່ໃຊ້ໂດຍທຸລະກິດ.
"ມັນເປັນສິ່ງຈໍາເປັນທີ່ຜູ້ສ້າງນະໂຍບາຍປະກາດກົດຫມາຍແລະກົດລະບຽບທີ່ປົກປ້ອງສິດທິຂອງບຸກຄົນທັງຫມົດແລະແກ້ໄຂຄວາມກັງວົນເຫຼົ່ານີ້ຢ່າງເຫມາະສົມ," ທີມງານໄດ້ຮຽກຮ້ອງໃຫ້ຜູ້ສ້າງກົດຫມາຍຄວບຄຸມຊອບແວລົດຂັບລົດດ້ວຍຕົນເອງເພື່ອປ້ອງກັນຄວາມລໍາອຽງໃນລະບົບການກວດພົບຂອງພວກເຂົາ.
(ຕາມ Insider)
ທີ່ມາ










(0)