ທະນາຄານທີ່ໃຫຍ່ທີ່ສຸດຂອງອາເມລິກາ, JPMorgan Chase, Amazon ແລະບໍລິສັດເຕັກໂນໂລຢີ Accenture ໄດ້ຈໍາກັດພະນັກງານທັງຫມົດຈາກການນໍາໃຊ້ ChatGPT ກ່ຽວກັບຄວາມກັງວົນກ່ຽວກັບຄວາມປອດໄພຂອງຂໍ້ມູນ.
ອີງຕາມ CNN, ຄວາມກັງວົນຂອງທຸລະກິດເຫຼົ່ານີ້ແມ່ນພື້ນຖານຢ່າງສົມບູນ. ໃນວັນທີ 20 ມີນາ, chatbot ຂອງ OpenAI ມີຂໍ້ຜິດພາດທີ່ເປີດເຜີຍຂໍ້ມູນຜູ້ໃຊ້. ເຖິງແມ່ນວ່າຄວາມຜິດພາດໄດ້ຖືກແກ້ໄຂຢ່າງໄວວາ, ບໍລິສັດໄດ້ເປີດເຜີຍວ່າເຫດການດັ່ງກ່າວໄດ້ຮັບຜົນກະທົບ 1.2% ຂອງຜູ້ໃຊ້ ChatGPT Plus. ຂໍ້ມູນຮົ່ວໄຫຼລວມມີຊື່ເຕັມ, ທີ່ຢູ່ອີເມວ, ທີ່ຢູ່ໃບບິນ, ສີ່ຕົວເລກສຸດທ້າຍຂອງເລກບັດເຄຣດິດ, ແລະວັນຫມົດອາຍຸຂອງບັດ.
ໃນວັນທີ 31 ເດືອນມີນາ, ອົງການປົກປ້ອງຂໍ້ມູນຂອງອີຕາລີ (Garante) ໄດ້ອອກຂໍ້ຫ້າມຊົ່ວຄາວກ່ຽວກັບ ChatGPT ໂດຍອ້າງເຖິງຄວາມກັງວົນກ່ຽວກັບຄວາມເປັນສ່ວນຕົວຫຼັງຈາກ OpenAI ເປີດເຜີຍຄວາມອ່ອນແອ.
Mark McCreary, ປະທານ ຮ່ວມ ຂອງຄວາມປອດໄພຂໍ້ມູນແລະຄວາມເປັນສ່ວນຕົວຂອງບໍລິສັດກົດຫມາຍ Fox Rothschild LLP, ບອກ CNN ວ່າຄວາມກັງວົນດ້ານຄວາມປອດໄພທີ່ອ້ອມຮອບ ChatGPT ແມ່ນບໍ່ເກີນ. ລາວໄດ້ປຽບທຽບ AI chatbot ກັບ "ກ່ອງສີດໍາ."
ChatGPT ຖືກເປີດຕົວໂດຍ OpenAI ໃນເດືອນພະຈິກ 2022 ແລະໄດ້ດຶງດູດຄວາມສົນໃຈຢ່າງໄວວາສໍາລັບຄວາມສາມາດໃນການຂຽນບົດເລື່ອງ, ແຕ່ງບົດເລື່ອງຫຼືເນື້ອເພງໂດຍການກະຕຸ້ນໃຫ້ເຂົາເຈົ້າ. ຍັກໃຫຍ່ດ້ານເຕັກໂນໂລຢີເຊັ່ນ Google ແລະ Microsoft ຍັງໄດ້ເປີດຕົວເຄື່ອງມື AI ທີ່ເຮັດວຽກທີ່ຄ້າຍຄືກັນ, ຂັບເຄື່ອນໂດຍຕົວແບບພາສາຂະຫນາດໃຫຍ່ທີ່ໄດ້ຮັບການຝຶກອົບຮົມຢູ່ໃນຮ້ານຂໍ້ມູນອອນໄລນ໌ຂະຫນາດໃຫຍ່.
ປະຕິບັດຕາມການເຄື່ອນໄຫວຂອງອີຕາລີ, ເຢຍລະມັນຍັງພິຈາລະນາຫ້າມ ChatGPT
ເມື່ອຜູ້ໃຊ້ປ້ອນຂໍ້ມູນເຂົ້າໃນເຄື່ອງມືເຫຼົ່ານີ້, ພວກເຂົາບໍ່ຮູ້ວ່າມັນຈະຖືກນໍາໃຊ້ແນວໃດ, ທ່ານ McCreay ກ່າວຕື່ມວ່າ. ນີ້ແມ່ນຄວາມກັງວົນສໍາລັບບໍລິສັດຍ້ອນວ່າພະນັກງານຫຼາຍກວ່າແລະຫຼາຍໃຊ້ເຄື່ອງມືເພື່ອຊ່ວຍຂຽນອີເມລ໌ເຮັດວຽກຫຼືບັນທຶກສໍາລັບກອງປະຊຸມ, ນໍາໄປສູ່ຄວາມສ່ຽງສູງທີ່ຈະເປີດເຜີຍຄວາມລັບດ້ານການຄ້າ.
Steve Mills, ຜູ້ອໍານວຍການດ້ານຈັນຍາບັນ AI ຢູ່ Boston Consulting Group (BCG), ກ່າວວ່າບໍລິສັດມີຄວາມກັງວົນກ່ຽວກັບພະນັກງານເປີດເຜີຍຂໍ້ມູນທີ່ລະອຽດອ່ອນໂດຍບັງເອີນ. ຖ້າຂໍ້ມູນທີ່ຄົນປ້ອນເຂົ້າຈະຖືກໃຊ້ເພື່ອຝຶກອົບຮົມເຄື່ອງມື AI ນີ້, ເຂົາເຈົ້າໄດ້ມອບການຄວບຄຸມຂໍ້ມູນໃຫ້ຄົນອື່ນ.
ອີງຕາມນະໂຍບາຍຄວາມເປັນສ່ວນຕົວຂອງ OpenAI, ບໍລິສັດອາດຈະເກັບກໍາຂໍ້ມູນສ່ວນບຸກຄົນທັງຫມົດແລະຂໍ້ມູນຈາກຜູ້ໃຊ້ບໍລິການເພື່ອປັບປຸງຮູບແບບ AI ຂອງຕົນ. ພວກເຂົາເຈົ້າອາດຈະນໍາໃຊ້ຂໍ້ມູນນີ້ເພື່ອປັບປຸງຫຼືວິເຄາະການບໍລິການຂອງເຂົາເຈົ້າ, ດໍາເນີນການຄົ້ນຄ້ວາ, ຕິດຕໍ່ສື່ສານກັບຜູ້ໃຊ້, ແລະພັດທະນາໂຄງການແລະການບໍລິການໃຫມ່.
ນະໂຍບາຍຄວາມເປັນສ່ວນຕົວລະບຸວ່າ OpenAI ອາດຈະໃຫ້ຂໍ້ມູນສ່ວນບຸກຄົນກັບບຸກຄົນທີສາມໂດຍບໍ່ມີການແຈ້ງໃຫ້ຜູ້ຊົມໃຊ້, ເວັ້ນເສຍແຕ່ຕ້ອງການໂດຍກົດຫມາຍ. OpenAI ຍັງມີເອກະສານເງື່ອນໄຂການໃຫ້ບໍລິການຂອງຕົນເອງ, ແຕ່ບໍລິສັດວາງຄວາມຮັບຜິດຊອບຫຼາຍຕໍ່ຜູ້ໃຊ້ທີ່ຈະໃຊ້ມາດຕະການທີ່ເຫມາະສົມໃນເວລາທີ່ພົວພັນກັບເຄື່ອງມື AI.
ເຈົ້າຂອງ ChatGPT ໄດ້ລົງໃນ blog ຂອງເຂົາເຈົ້າກ່ຽວກັບວິທີການຂອງພວກເຂົາເພື່ອຄວາມປອດໄພ AI. ບໍລິສັດເນັ້ນຫນັກວ່າມັນບໍ່ໄດ້ໃຊ້ຂໍ້ມູນເພື່ອຂາຍບໍລິການ, ໂຄສະນາ, ຫຼືສ້າງໂປຣໄຟລ໌ຂອງຜູ້ໃຊ້. ແທນທີ່ຈະ, OpenAI ໃຊ້ຂໍ້ມູນເພື່ອເຮັດໃຫ້ຕົວແບບຂອງມັນເປັນປະໂຫຍດຫຼາຍຂຶ້ນ. ຕົວຢ່າງ, ການສົນທະນາຂອງຜູ້ໃຊ້ຈະຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມ ChatGPT.
ນະໂຍບາຍຄວາມເປັນສ່ວນຕົວຂອງ ChatGPT ແມ່ນຖືວ່າຂ້ອນຂ້າງບໍ່ຊັດເຈນ.
Google, ບໍລິສັດທີ່ຢູ່ເບື້ອງຫລັງ Bard AI, ມີຂໍ້ສະເຫນີຄວາມເປັນສ່ວນຕົວເພີ່ມເຕີມສໍາລັບຜູ້ໃຊ້ AI ຂອງຕົນ. ບໍລິສັດຈະເລືອກເອົາສ່ວນຂະຫນາດນ້ອຍຂອງການສົນທະນາແລະນໍາໃຊ້ເຄື່ອງມືອັດຕະໂນມັດເພື່ອເອົາຂໍ້ມູນສ່ວນບຸກຄົນທີ່ສາມາດລະບຸຕົວຕົນໄດ້, ເຊິ່ງຈະຊ່ວຍປັບປຸງ Bard ໃນຂະນະທີ່ປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.
ການສົນທະນາຕົວຢ່າງຈະຖືກທົບທວນຄືນໂດຍຄູຝຶກຂອງມະນຸດ ແລະເກັບໄວ້ເປັນເວລາສາມປີ, ແຍກອອກຈາກບັນຊີ Google ຂອງຜູ້ໃຊ້. Google ຍັງເຕືອນຜູ້ໃຊ້ບໍ່ໃຫ້ລວມເອົາຂໍ້ມູນສ່ວນຕົວກ່ຽວກັບຕົນເອງຫຼືຄົນອື່ນໃນການສົນທະນາກ່ຽວກັບ Bard AI. ຍັກໃຫຍ່ເຕັກໂນໂລຢີເນັ້ນຫນັກວ່າການສົນທະນາເຫຼົ່ານີ້ຈະບໍ່ຖືກນໍາໃຊ້ເພື່ອຈຸດປະສົງການໂຄສະນາແລະຈະປະກາດການປ່ຽນແປງໃນອະນາຄົດ.
Bard AI ອະນຸຍາດໃຫ້ຜູ້ໃຊ້ເລືອກອອກຈາກການບັນທຶກການສົນທະນາກັບບັນຊີ Google ຂອງເຂົາເຈົ້າ, ເຊັ່ນດຽວກັນກັບການທົບທວນຄືນຫຼືລຶບການສົນທະນາຜ່ານການເຊື່ອມຕໍ່. ນອກຈາກນັ້ນ, ບໍລິສັດມີການປົກປ້ອງທີ່ຖືກອອກແບບມາເພື່ອປ້ອງກັນບໍ່ໃຫ້ Bard ລວມທັງຂໍ້ມູນສ່ວນຕົວໃນການຕອບສະຫນອງ.
Steve Mills ເວົ້າວ່າບາງຄັ້ງຜູ້ໃຊ້ແລະນັກພັດທະນາພຽງແຕ່ຄົ້ນພົບຄວາມສ່ຽງດ້ານຄວາມປອດໄພທີ່ເຊື່ອງໄວ້ໃນເຕັກໂນໂລຢີໃຫມ່ໃນເວລາທີ່ມັນຊ້າເກີນໄປ. ຕົວຢ່າງ, ຫນ້າທີ່ຕື່ມຂໍ້ມູນອັດຕະໂນມັດສາມາດເປີດເຜີຍຕົວເລກປະກັນສັງຄົມຂອງຜູ້ໃຊ້ໂດຍບັງເອີນ.
ຜູ້ໃຊ້ບໍ່ຄວນເອົາສິ່ງໃດເຂົ້າໄປໃນເຄື່ອງມືເຫຼົ່ານີ້ທີ່ພວກເຂົາບໍ່ຕ້ອງການແບ່ງປັນກັບຜູ້ອື່ນ, ທ່ານ Mills ກ່າວ.
ແຫຼ່ງທີ່ມາ
(0)