ChatGPT ຟ້ອງ
ບໍ່ດົນມານີ້, ຜູ້ຂຽນຊາວອາເມລິກາສອງຄົນໄດ້ຟ້ອງຮ້ອງ OpenAI ໃນສານລັດຖະບານກາງ San Francisco, ໂດຍອ້າງວ່າບໍລິສັດໄດ້ໃຊ້ວຽກງານຂອງພວກເຂົາເພື່ອ "ຝຶກອົບຮົມ" ລະບົບປັນຍາປະດິດທີ່ມີຊື່ສຽງ ChatGPT.
ຜູ້ຂຽນໃນລັດ Massachusetts Paul Tremblay ແລະ Mona Awad ເວົ້າວ່າ ChatGPT ໄດ້ຂຸດຄົ້ນຂໍ້ມູນທີ່ຖືກຄັດລອກຈາກຫນັງສືຫລາຍພັນຫົວໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ, ລະເມີດລິຂະສິດຂອງຜູ້ຂຽນ. ການຟ້ອງຮ້ອງຂອງພວກເຂົາໂຕ້ຖຽງວ່າ ChatGPT ໄດ້ສ້າງ "ບົດສະຫຼຸບທີ່ຖືກຕ້ອງສູງ" ຂອງວຽກງານຂອງພວກເຂົາໂດຍບໍ່ມີການອະນຸຍາດຈາກຜູ້ຂຽນ, ເຊິ່ງເປັນການລະເມີດລິຂະສິດ.
The Guardian ໄດ້ອ້າງເຖິງ Andres Guadamuz, ຜູ້ທີ່ສຶກສາກົດຫມາຍຊັບສິນທາງປັນຍາທີ່ມະຫາວິທະຍາໄລ Sussex, ໂດຍກ່າວວ່ານີ້ແມ່ນການຟ້ອງຮ້ອງຄັ້ງທໍາອິດທີ່ກ່ຽວຂ້ອງກັບສິດທິຊັບສິນທາງປັນຍາສໍາລັບ ChatGPT. ຕາມນັ້ນແລ້ວ, ທ່ານ Guadamuz ໃຫ້ຮູ້ວ່າ: ການຟ້ອງຮ້ອງຄັ້ງນີ້ຈະເປີດເຜີຍ “ຂອບເຂດທາງກົດໝາຍ” ທີ່ບໍ່ຈະແຈ້ງໃນຂະບວນການນຳໃຊ້ນະວັດຕະກຳ AI ໃນທຸກມື້ນີ້.
OpenAI ຟ້ອງຮ້ອງສໍາລັບການລະເມີດລິຂະສິດໃນການຝຶກອົບຮົມ AI.
ທາງດ້ານນັກຂ່າວ, ໄດ້ມີການຕັ້ງຄຳຖາມຫຼາຍດ້ານກ່ຽວກັບໂອກາດ ແລະສິ່ງທ້າທາຍ, ພ້ອມທັງຄວາມໂກດແຄ້ນ ແລະ ຜົນກະທົບຂອງປັນຍາປະດິດຕໍ່ວົງການນັກຂ່າວໂດຍທົ່ວໄປ ແລະ ຕໍ່ຕຳແໜ່ງງານຂອງນັກຂ່າວ.
ChatGPT ສາມາດສ້າງຂໍ້ຄວາມທີ່ມີຄວາມຊັບຊ້ອນສູງຈາກຄໍາສັ່ງຂອງຜູ້ໃຊ້ທີ່ງ່າຍດາຍ, ສ້າງສິ່ງໃດແດ່ຈາກບົດຂຽນໄປຫາຄໍາຮ້ອງສະຫມັກວຽກໄປຫາບົດກະວີໄປຫາເລື່ອງນິຍາຍ. ChatGPT ເປັນຮູບແບບພາສາຂະຫນາດໃຫຍ່, ການຝຶກອົບຮົມໂດຍການອັບໂຫລດພັນລ້ານຄໍາຂອງຊີວິດປະຈໍາວັນໃນລະບົບຈາກອິນເຕີເນັດ. ຈາກນັ້ນ, ມັນ infers ປະໂຫຍກແລະຄໍາສັບຕ່າງໆຈາກລໍາດັບທີ່ແນ່ນອນ.
ຢ່າງໃດກໍ່ຕາມ, ຄວາມຖືກຕ້ອງຂອງຄໍາຕອບໄດ້ຖືກຖາມ. ນັກວິຊາການໃນອົດສະຕາລີໄດ້ພົບເຫັນຕົວຢ່າງຂອງລະບົບການປອມແປງການອ້າງອິງຈາກເວັບໄຊທ໌ແລະຫຼັງຈາກນັ້ນອ້າງເຖິງຄໍາເວົ້າປອມ. ການນໍາໃຊ້ປັນຍາປະດິດໃນວາລະສານກໍມີການໂຕ້ຖຽງກັນ.
ເວັບໄຊທ໌ຂ່າວເຕັກໂນໂລຢີ CNET ໃຊ້ AI ເພື່ອສ້າງບົດຄວາມທີ່ຖືກກວດສອບຂໍ້ຜິດພາດໂດຍບັນນາທິການຂອງມະນຸດກ່ອນການພິມເຜີຍແຜ່. ເວັບໄຊທ໌ຍອມຮັບວ່າໂຄງການມີຂໍ້ຈໍາກັດ, ຫຼັງຈາກເລື່ອງຢູ່ໃນເວັບໄຊທ໌ຂ່າວເຕັກໂນໂລຢີ Futurism ເປີດເຜີຍວ່າຫຼາຍກວ່າເຄິ່ງຫນຶ່ງຂອງບົດຄວາມທີ່ສ້າງຂຶ້ນໂດຍເຄື່ອງມື AI ຕ້ອງໄດ້ຮັບການດັດແກ້ສໍາລັບຄວາມຜິດພາດ. ໃນໂອກາດຫນຶ່ງ, CNET ຖືກບັງຄັບໃຫ້ອອກການແກ້ໄຂບົດຄວາມທີ່ມີຂໍ້ຜິດພາດທີ່ງ່າຍດາຍເກີນໄປ.
ແຕ່ທ່າແຮງສໍາລັບ AI ໃນການສ້າງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງບໍ່ແມ່ນຄວາມກັງວົນເທົ່ານັ້ນ. ຍັງມີບັນຫາທາງດ້ານກົດໝາຍ ແລະຈັນຍາບັນທີ່ຕ້ອງພິຈາລະນາ, ລວມທັງສິດທິຊັບສິນທາງປັນຍາ (IP), ການຄວບຄຸມເນື້ອຫາ, ແລະການລົບກວນທີ່ອາດເກີດຂຶ້ນຂອງຮູບແບບການເງິນໃນປະຈຸບັນຂອງຫ້ອງຂ່າວ.
ໃຜເປັນເຈົ້າຂອງຊັບສິນທາງປັນຍາ ແລະສິດການເຜີຍແຜ່ເນື້ອຫາ?
ຕາມທ່ານ ເລກວກມິນ, ກຳມະການສູນກາງພັກ, ບັນນາທິການໃຫຍ່ໜັງສືພິມເຍີນແດນ, ຮອງຫົວໜ້າກົມໂຄສະນາເຜີຍແຜ່ສູນກາງ, ປະທານ ສະມາຄົມນັກຂ່າວຫວຽດນາມ ແລ້ວ, ຖ້າຫ້ອງຂ່າວເລີ່ມເຊື່ອມໂຍງ AI ເພື່ອຜະລິດເນື້ອໃນ, ມີຄຳຖາມສຳຄັນຄື: ໃຜເປັນເຈົ້າຂອງຊັບສິນທາງປັນຍາ ແລະ ສິດເຜີຍແຜ່ເນື້ອໃນ? ອົງການຂ່າວໄດ້ສັ່ງໃຫ້ເວທີ AI ຫຼືແມ່ນເວທີ AI ຂອງມັນເອງ?
ທ່ານ Le Quoc Minh ຊີ້ແຈ້ງວ່າ, ບໍ່ຄືກັບອາເມລິກາ, ກົດໝາຍຂອງອັງກິດອະນຸຍາດໃຫ້ປົກປ້ອງລິຂະສິດບັນດາຜົນງານທີ່ຜະລິດດ້ວຍຄອມພິວເຕີ, ເຖິງວ່າມີພຽງແຕ່ບຸກຄົນ ຫຼື ອົງການຈັດຕັ້ງເທົ່ານັ້ນມີສິດ “ເປັນເຈົ້າຂອງ” ຊັບສິນທາງປັນຍາ, ແຕ່ບໍ່ເຄີຍມີ AI ເລີຍ. ໂດຍສະເພາະ, ນີ້ຫມາຍຄວາມວ່າຖ້າລະບົບ AI ໄດ້ປະກອບສ່ວນຫນ້ອຍທີ່ເກີນຄໍາສັ່ງຂອງຜູ້ໃຊ້ຂັ້ນພື້ນຖານ, ແລະຂະບວນການຕັດສິນໃຈອັດຕະໂນມັດໄດ້ຊຸກຍູ້ຂະບວນການສ້າງສັນ, ຫຼັງຈາກນັ້ນຜູ້ສ້າງເວທີສາມາດຖືວ່າເປັນ "ຜູ້ຂຽນ" ແລະເຈົ້າຂອງຜະລິດຕະພັນສິນທາງປັນຍາ.
ບັນນາທິການໃຫຍ່ Gideon Lichfield ກ່າວວ່າພວກເຂົາຈະບໍ່ເຜີຍແຜ່ເນື້ອຫາທີ່ຂຽນຫຼືດັດແກ້ໂດຍ AI, ແລະຈະບໍ່ໃຊ້ຮູບພາບຫຼື ວິດີໂອ ທີ່ສ້າງໂດຍ AI.
ຖ້າຕ້ອງການວັດສະດຸປ້ອນຫຼາຍໂດຍຜ່ານການອັບໂຫລດເອກະສານໃສ່ລະບົບ, ແລະ AI ແມ່ນພຽງແຕ່ເຄື່ອງມືສະຫນັບສະຫນູນ, ຫຼັງຈາກນັ້ນຊັບສິນທາງປັນຍາຂອງຜົນຜະລິດອາດຈະເປັນຂອງຜູ້ໃຊ້. ໃນຄວາມເປັນຈິງ, ຖ້ານັກຂ່າວໃຊ້ AI, ພວກເຂົາຕ້ອງກວດສອບເງື່ອນໄຂການບໍລິການຂອງເວທີຕ່າງໆຢ່າງລະມັດລະວັງເພື່ອປະເມີນກົດລະບຽບຊັບສິນທາງປັນຍາຢ່າງລະມັດລະວັງ. ບາງແພລະຕະຟອມ "ໃຫ້" ສິດທິຊັບສິນທາງປັນຍາແກ່ຜູ້ໃຊ້ໃນຂະນະທີ່ຄົນອື່ນອາດຈະຮັກສາສິດນີ້ແລະໃຫ້ມັນພາຍໃຕ້ "ໃບອະນຸຍາດ" (ອາດຈະເປັນກົດລະບຽບຈໍາກັດການນໍາໃຊ້ຫ້ອງຂ່າວ).
ທ່ານ Minh ກ່າວວ່າ “ບໍ່ວ່າໃຜຈະເປັນເຈົ້າຂອງຊັບສິນທາງປັນຍາ, ຫ້ອງຂ່າວຕ້ອງໄດ້ກະກຽມເພື່ອຮັບຜິດຊອບຕໍ່ເນື້ອໃນທີ່ສ້າງໂດຍ AI ທີ່ເຂົາເຈົ້າເຜີຍແຜ່ – ລວມທັງຄວາມເປັນໄປໄດ້ທີ່ເນື້ອໃນນັ້ນຖືກຖືວ່າເປັນການໝິ່ນປະໝາດ ຫຼືຫຼອກລວງ,”
ບັນນາທິການໃຫຍ່ຂອງຫນັງສືພິມ Nhan Dan ກ່າວຕື່ມວ່າ, ມາຮອດປັດຈຸບັນ, ເຄື່ອງມື AI ຈໍານວນຫຼາຍບໍ່ໄດ້ "ເຜີຍແຜ່" ຄໍາຕອບໃຫ້ກັບຜູ້ອື່ນນອກເຫນືອຈາກຜູ້ໃຊ້ເອງ, ແລະຜູ້ໃດທີ່ໃຊ້ເຕັກໂນໂລຢີເຫຼົ່ານີ້ຮັບຜິດຊອບຕໍ່ເນື້ອຫາທີ່ພວກເຂົາປະກາດ. ຄວາມສ່ຽງທີ່ໃຫຍ່ທີ່ສຸດສໍາລັບຫ້ອງຂ່າວທີ່ເຜີຍແຜ່ວຽກງານທີ່ສ້າງໂດຍ AI ແມ່ນການລະເມີດສິດທິຊັບສິນທາງປັນຍາຂອງພາກສ່ວນທີສາມໂດຍບັງເອີນ. ນັກຂ່າວບໍ່ສາມາດຮູ້ວ່າຮູບພາບຫຼືຂໍ້ຄວາມໃດຖືກໃຊ້ເພື່ອຝຶກອົບຮົມ AI, ຫຼືຖືກດຶງເຂົ້າມາເພື່ອສ້າງເນື້ອຫາຕາມຄວາມຕ້ອງການ.
ທ່ານ ເລກວກມິນ ເນັ້ນໜັກວ່າ: “ ຫ້ອງຂ່າວຕ້ອງຍອມຮັບຄວາມຈິງທີ່ເບິ່ງຄືວ່າເນື້ອໃນທີ່ສ້າງໂດຍ AI ແບບດັ້ງເດີມ ອາດຈະໄດ້ຮັບອິດທິພົນຢ່າງໜັກໜ່ວງຈາກ – ຫຼືຄັດລອກໂດຍກົງຈາກແຫຼ່ງຂໍ້ມູນຂອງບຸກຄົນທີສາມໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ .
ທ່ານມິນຍັງໃຫ້ຂໍ້ສັງເກດວ່າ, ເງື່ອນໄຂການບໍລິການຂອງເວທີ AI ບໍ່ຮັບປະກັນວ່າຜົນງານດັ່ງກ່າວຈະບໍ່ລະເມີດລິຂະສິດ, ດັ່ງນັ້ນ, ຫ້ອງຂ່າວຈະບໍ່ມີພື້ນຖານດ້ານກົດໝາຍຖ້າຜູ້ຂຽນຖືກຟ້ອງ. ຕົວຢ່າງເຊັ່ນ, ບໍລິສັດເກັບຮັກສາຮູບພາບ Getty Images ໄດ້ລິເລີ່ມການດໍາເນີນຄະດີຕໍ່ Stability AI - ບໍລິສັດແມ່ທີ່ເຮັດໃຫ້ເຄື່ອງມືສ້າງຮູບພາບທີ່ມີຄວາມຫມັ້ນຄົງ - ສໍາລັບ "ການຄັດລອກແລະປຸງແຕ່ງຮູບພາບທີ່ຜິດກົດຫມາຍຫຼາຍລ້ານຮູບທີ່ຖືກປົກປ້ອງລິຂະສິດຫຼືເປັນຕົວແທນໂດຍ Getty Images.
"ເຖິງແມ່ນວ່າ Stability AI ຫລີກລ້ຽງການຟ້ອງຮ້ອງກ່ຽວກັບລິຂະສິດ, ມັນຍັງຈະພົບເຫັນວ່າໄດ້ລະເມີດເງື່ອນໄຂການບໍລິການຂອງ Getty Images, ເຊິ່ງຫ້າມ "ການຂຸດຄົ້ນຂໍ້ມູນໃດໆ, ຫຸ່ນຍົນ, ຫຼືວິທີການເກັບກໍາຂໍ້ມູນທີ່ຄ້າຍຄືກັນ. ສື່ມວນຊົນທີ່ພົບເຫັນວ່າໃຊ້ AI ເພື່ອແຊກແຊງເນື້ອໃນຂອງ Getty Images ໂດຍບໍ່ມີການອະນຸຍາດກໍ່ອາດຈະຖືກຟ້ອງຮ້ອງ,” Minh ເວົ້າ.
ໃນການພັດທະນາໃນທາງບວກ, ເວັບໄຊທ໌ຂ່າວເຕັກໂນໂລຢີ Wired ບໍ່ດົນມານີ້ໄດ້ກາຍເປັນສື່ມວນຊົນທໍາອິດທີ່ເຜີຍແຜ່ກົດລະບຽບຢ່າງເປັນທາງການກ່ຽວກັບ AI, ອະທິບາຍວ່າພວກເຂົາວາງແຜນທີ່ຈະນໍາໃຊ້ເຕັກໂນໂລຢີແນວໃດ.
ກົດລະບຽບ, ຈັດພີມມາໂດຍບັນນາທິການໃຫຍ່ Gideon Lichfield ໃນຕົ້ນເດືອນມີນາ, ໃຫ້ຄໍາຫມັ້ນສັນຍາຊຸດກ່ຽວກັບສິ່ງທີ່ຫ້ອງການບັນນາທິການຈະບໍ່ເຮັດ, ເຊັ່ນ: ບໍ່ເຜີຍແຜ່ເນື້ອຫາທີ່ຂຽນຫຼືດັດແກ້ໂດຍ AI, ບໍ່ໃຊ້ຮູບພາບຫຼືວິດີໂອທີ່ສ້າງໂດຍ AI, ແຕ່ພຽງແຕ່ໃຊ້ AI ເພື່ອເອົາແນວຄວາມຄິດສໍາລັບບົດຄວາມ, ຫຼືແນະນໍາຫົວຂໍ້ທີ່ຫນ້າສົນໃຈ, ຫຼືເນື້ອຫາທີ່ເຜີຍແຜ່ໃນເຄືອຂ່າຍສັງຄົມເພື່ອໃຫ້ມີປະສິດທິພາບ. ນີ້ສາມາດໄດ້ຮັບການພິຈາລະນາເປັນມາດຕະການໃນທາງບວກແລະມີຄວາມຈໍາເປັນໃນສະພາບການຂອງ AI ເຮັດໃຫ້ເກີດຄວາມຂັດແຍ້ງຫຼາຍກ່ຽວກັບບັນຫາທາງດ້ານກົດຫມາຍແລະຈັນຍາບັນໃນກິດຈະກໍານັກຂ່າວໃນປະຈຸບັນ.
ຮວ່າຈຽງ
ທີ່ມາ










(0)