ຂໍ້ມູນຂ້າງເທິງນີ້ໄດ້ຖືກຢືນຢັນໂດຍ Nick Clegg - ປະທານຝ່າຍໂລກຂອງ Meta ກັບ Reuters ໃນການສໍາພາດໃນອາທິດນີ້. ດັ່ງນັ້ນ, ຂໍ້ມູນສໍາລັບການຝຶກອົບຮົມ "ຫຼາຍບຸກຄະລິກກະພາບ" AI (ທີ່ບໍລິສັດໄດ້ນໍາສະເຫນີໃນວັນທີ 27 ເດືອນກັນຍາ) ແມ່ນເອົາມາຈາກຂໍ້ຄວາມ (ຂໍ້ຄວາມທີ່ຂຽນ, ຮູບພາບ) ທີ່ຜູ້ໃຊ້ໂພດສາທາລະນະໃນ Facebook, Instagram. ເນື້ອຫາສ່ວນຕົວ ຫຼືຜູ້ຊົມທີ່ຈຳກັດໃຫ້ກັບໝູ່ເພື່ອນ, ຄອບຄົວ ແລະການສົນທະນາບໍ່ໄດ້ໃຊ້.
Clegg ກ່າວວ່າ Meta ໃຊ້ມາດຕະການດ້ານວິຊາການທີ່ຈໍາເປັນເພື່ອຄວບຄຸມວ່າຂໍ້ມູນໃດຖືກຂຸດຄົ້ນໂດຍ AI, ແຕ່ປະຕິເສດທີ່ຈະໃຫ້ລາຍລະອຽດກ່ຽວກັບວິທີການເຮັດວຽກຂອງຕົວແບບນີ້. "ພວກເຮົາຍົກເວັ້ນຊຸດຂໍ້ມູນທີ່ມີຂໍ້ມູນສ່ວນບຸກຄົນຫຼາຍ, ແລະພວກເຮົາບໍ່ໄດ້ໃຊ້ຂໍ້ມູນຈາກສະຖານທີ່ເຊັ່ນ LinkedIn ເພື່ອຝຶກອົບຮົມ AI ເນື່ອງຈາກຄວາມກັງວົນກ່ຽວກັບຄວາມເປັນສ່ວນຕົວ", ຜູ້ນໍາຂອງ Meta ເນັ້ນຫນັກ.
ຂໍ້ຄວາມສາທາລະນະໃນ Facebook, Instagram ແມ່ນໃຊ້ເພື່ອຝຶກອົບຮົມ AI ຂອງ Meta
CEO ຂອງ Meta Mark Zuckerberg ອະທິບາຍຜູ້ຊ່ວຍ Meta AI ວ່າສາມາດ "ສົນທະນາຄືກັບມະນຸດ" ໄດ້ຍ້ອນການສ້າງແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ທີ່ເອີ້ນວ່າ Llama 2, ປະສົມປະສານກັບຕົວແບບຂໍ້ຄວາມຫາຮູບພາບຂອງ Emu. ຜູ້ຊ່ວຍຂອງບໍລິສັດມີຄວາມສາມາດສ້າງຂໍ້ຄວາມ, ສຽງ, ຮູບພາບ, ແລະສາມາດເຂົ້າເຖິງຂໍ້ມູນໃນເວລາທີ່ແທ້ຈິງຍ້ອນການຮ່ວມມືກັບເຄື່ອງຈັກຊອກຫາ Bing ຂອງ Microsoft - ເວທີທີ່ຍັງໃຊ້ ChatGPT ຮຸ່ນຫຼ້າສຸດ.
Meta AI ປະກອບດ້ວຍ 28 chatbots (ໂຄງການຕອບສະຫນອງອັດຕະໂນມັດ) ໂດຍອີງໃສ່ stereotype ຂອງຄົນທີ່ມີຊື່ສຽງ. ໃນມື້ທໍາອິດຂອງການທົດສອບ, ເຄື່ອງມືນີ້ໄດ້ປະເຊີນກັບການໂຕ້ຖຽງຫຼາຍໃນເວລາທີ່ມັນສະແດງໃຫ້ເຫັນອາການຂອງການເປັນພິດ, overreacting ເນື່ອງຈາກ ... ບຸກຄະລິກຂອງຕົນ. ໃນບັນດາພວກເຂົາ, ບາງ chatbots ໃຫ້ຂໍ້ມູນທີ່ມີແນວໂນ້ມທີ່ຈະເປັນເຊື້ອຊາດ, delving ເລິກເກີນໄປເຂົ້າໄປໃນຊີວິດສ່ວນຕົວຂອງຜູ້ໃຊ້. ບັນຫາແມ່ນຮ້າຍແຮງຂຶ້ນເມື່ອພະນັກງານຂອງຕົນເອງຂອງ Meta ຍັງປະກາດວ່າພວກເຂົາຈະບໍ່ທົດສອບ AI ນີ້ເນື່ອງຈາກຄວາມກັງວົນກ່ຽວກັບເນື້ອຫາທີ່ຜິດປົກກະຕິໂດຍປັນຍາປະດິດຂອງບໍລິສັດ.
ການນໍາໃຊ້ຂໍ້ມູນຜູ້ໃຊ້ຂອງ Meta ທີ່ຖືກຈັດພີມມາຢູ່ໃນເຄືອຂ່າຍສັງຄົມເພື່ອ "ອາຫານ" ປັນຍາປະດິດຍັງເຮັດໃຫ້ເກີດຄວາມກັງວົນກ່ຽວກັບບັນຫາລິຂະສິດ. ເມື່ອຖືກຖາມວ່າ Meta ປະຕິບັດຕາມຂັ້ນຕອນເພື່ອຫຼີກເວັ້ນການຄັດລອກເນື້ອຫາທີ່ມີລິຂະສິດ, ຕົວແທນຂອງບໍລິສັດພຽງແຕ່ກ່າວເຖິງຂໍ້ຫ້າມຜູ້ໃຊ້ສ້າງເນື້ອຫາທີ່ລະເມີດຄວາມເປັນສ່ວນຕົວແລະຊັບສິນທາງປັນຍາໃນເວທີນີ້.
ແຫຼ່ງທີ່ມາ






(0)