ໃນການປັບປຸງທີ່ປ່ອຍອອກມາໃຫມ່ກ່ຽວກັບຫຼັກການ AI ຂອງຕົນ, ບໍລິສັດແມ່ຂອງ Google, Alphabet, ໄດ້ອະທິບາຍວິທີການວາງແຜນທີ່ຈະໃຊ້ AI ໃນອະນາຄົດ. ສິ່ງທີ່ໂດດເດັ່ນທີ່ສຸດ, ມັນໄດ້ຍົກເລີກຄໍາສັນຍາທີ່ຈະບໍ່ໃຊ້ AI ເພື່ອສ້າງອາວຸດ, ເຄື່ອງມືເຝົ້າລະວັງ, ຫຼື "ເຕັກໂນໂລຢີທີ່ອາດຈະເຮັດໃຫ້ເກີດອັນຕະລາຍຢ່າງກວ້າງຂວາງ."
AI Red Line ຂອງ Google
ຄໍາວ່າ AI ເສັ້ນສີແດງຂອງ Google ເກີດຂຶ້ນຄັ້ງທໍາອິດໃນປີ 2018, ເມື່ອພະນັກງານປະທ້ວງໂຄງການ Maven AI ໃນການຮ່ວມມືກັບ ກະຊວງປ້ອງກັນ ປະເທດສະຫະລັດ. ໃນເວລານັ້ນ, ພະນັກງານ Google ຫຼາຍກວ່າ 4,000 ຄົນໄດ້ລົງນາມໃນຄໍາຮ້ອງຟ້ອງເພື່ອຢຸດໂຄງການແລະຮຽກຮ້ອງໃຫ້ບໍລິສັດບໍ່ເຄີຍ "ສ້າງເຕັກໂນໂລຢີສໍາລັບສົງຄາມ".
ຫຼັງຈາກນັ້ນ Google ໄດ້ຖອນສັນຍາເພື່ອສ້າງເຄື່ອງມື AI ສໍາລັບ Pentagon. ບໍລິສັດຍັງໄດ້ແຕ້ມເສັ້ນສີແດງ, ປະກາດວ່າ "ຄໍາຮ້ອງສະຫມັກທີ່ບໍ່ປະຕິບັດຕາມ" ທີ່ກ່ຽວຂ້ອງກັບ AI, ລວມທັງອາວຸດແລະເຕັກໂນໂລຢີທີ່ເກັບກໍາຫຼືນໍາໃຊ້ຂໍ້ມູນສໍາລັບການເຝົ້າລະວັງທີ່ລະເມີດມາດຕະຖານທີ່ຍອມຮັບຈາກສາກົນ. ເຕັກໂນໂລຊີທີ່ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍຕໍ່ສາທາລະນະ, ລະເມີດຫຼັກການທີ່ເປັນທີ່ຍອມຮັບຢ່າງກວ້າງຂວາງຂອງກົດຫມາຍສາກົນແລະ ສິດທິມະນຸດ , ຍັງຈະບໍ່ມີສ່ວນຮ່ວມ.
ບາງແອັບ Google ໃນ iPhone
ການຕັດສິນໃຈແຕ້ມເສັ້ນສີແດງກ່ຽວກັບ AI ດ້ວຍອາວຸດໄດ້ເຮັດໃຫ້ Google ອອກຈາກຂໍ້ຕົກລົງ ທາງທະຫານ ທີ່ລົງນາມໂດຍຍັກໃຫຍ່ເຕັກໂນໂລຢີອື່ນໆ, ລວມທັງ Amazon ແລະ Microsoft.
ຢ່າງໃດກໍ່ຕາມ, ໃນການປະເຊີນຫນ້າກັບການປ່ຽນແປງອັນໃຫຍ່ຫຼວງດັ່ງກ່າວໃນການແຂ່ງຂັນ AI, Google ໄດ້ຕັດສິນໃຈຖອນຄໍາສັນຍາຂອງຕົນ. ນີ້ໄດ້ເຮັດໃຫ້ເກີດຄວາມຂັດແຍ້ງຫຼາຍບໍ່ພຽງແຕ່ພາຍໃນ Google ແຕ່ຍັງສະແດງໃຫ້ເຫັນເຖິງການປ່ຽນແປງທີ່ສໍາຄັນຂອງບໍລິສັດເຕັກໂນໂລຢີ Silicon Valley ໃນອຸດສາຫະກໍາປ້ອງກັນປະເທດ.
Google ຖືກແບ່ງອອກພາຍໃນ
ອີງຕາມການ Business Insider , ການປັບປຸງກ່ຽວກັບຫຼັກການ AI ແລະຈັນຍາບັນໄດ້ເຮັດໃຫ້ເກີດການຕອບໂຕ້ທີ່ເຂັ້ມແຂງຈາກພະນັກງານຂອງ Google. ພະນັກງານສະແດງຄວາມອຸກອັ່ງຢູ່ໃນກະດານຂໍ້ຄວາມພາຍໃນ. meme ສະແດງ CEO Sundar Pichai ສອບຖາມເຄື່ອງຈັກຊອກຫາຂອງ Google ດ້ວຍຄໍາຖາມ "ວິທີການກາຍເປັນຜູ້ຮັບເຫມົາອາວຸດ?" ໄດ້ຮັບຄວາມສົນໃຈຫຼາຍ.
ພະນັກງານອີກຄົນຫນຶ່ງໄດ້ສ້າງ meme ຖາມວ່າ, "ພວກເຮົາແມ່ນຄົນທີ່ບໍ່ດີສໍາລັບການຍົກເລີກການຫ້າມ AI ສໍາລັບອາວຸດແລະການເຝົ້າລະວັງບໍ?" ໃນປັດຈຸບັນບໍລິສັດມີພະນັກງານຫຼາຍກວ່າ 180,000 ຄົນ. ອາດຈະຍັງມີສຽງທີ່ສະຫນັບສະຫນູນການຕັດສິນໃຈຂອງ Google ທີ່ຈະເຮັດວຽກຢ່າງໃກ້ຊິດກັບລັດຖະບານສະຫະລັດແລະລູກຄ້າທາງທະຫານແລະປ້ອງກັນປະເທດຂອງຕົນ.
ເຫດຜົນຂອງ Google
ໂຄສົກຂອງ Google ບໍ່ໄດ້ຕອບສະຫນອງຕໍ່ຄໍາຮ້ອງຂໍຄໍາເຫັນກ່ຽວກັບການຖອນຕົວຂອງ "ຄໍາສັນຍາ AI." ຢ່າງໃດກໍຕາມ, ຫົວຫນ້າຂອງ AI, Demis Hassabis, ກ່າວວ່າຄໍາແນະນໍາໄດ້ຖືກພັດທະນາໃນໂລກທີ່ມີການປ່ຽນແປງແລະ AI ຈະ "ປົກປ້ອງຄວາມປອດໄພແຫ່ງຊາດ."
ໃນການຕອບ blog ຂອງບໍລິສັດ, Hassabis ແລະ James Manyika, ຮອງປະທານອາວຸໂສດ້ານເຕັກໂນໂລຢີແລະສັງຄົມຂອງ Google, ກ່າວວ່າຍ້ອນວ່າການແຂ່ງຂັນໃນທົ່ວໂລກສໍາລັບການເປັນຜູ້ນໍາໃນ AI ເພີ່ມຂຶ້ນ, Google ເຊື່ອວ່າ AI ຄວນຖືກນໍາພາໂດຍເສລີພາບ, ຄວາມສະເຫມີພາບ, ແລະການເຄົາລົບສິດທິມະນຸດ.
"ພວກເຮົາເຊື່ອວ່າບໍລິສັດ, ລັດຖະບານ, ແລະອົງການຈັດຕັ້ງແບ່ງປັນຄຸນຄ່າແລະຄວນເຮັດວຽກຮ່ວມກັນເພື່ອສ້າງ AI ທີ່ສາມາດປົກປ້ອງປະຊາຊົນ, ຊຸກຍູ້ການເຕີບໂຕຂອງໂລກ, ແລະສະຫນັບສະຫນູນຄວາມປອດໄພແຫ່ງຊາດ," ເຂົາເຈົ້າກ່າວຕື່ມວ່າ.
ສອງຜູ້ບໍລິຫານຂອງ Google ກ່າວວ່າຫລາຍຕື້ຄົນໃຊ້ AI ໃນຊີວິດປະຈໍາວັນຂອງພວກເຂົາ. ປັນຍາປະດິດໄດ້ກາຍເປັນເຕັກໂນໂລຢີທົ່ວໄປ, ເປັນເວທີທີ່ອົງການຈັດຕັ້ງແລະບຸກຄົນນັບບໍ່ຖ້ວນໃຊ້ເພື່ອສ້າງຄໍາຮ້ອງສະຫມັກ. AI ໄດ້ຍ້າຍຈາກຫົວຂໍ້ການຄົ້ນຄວ້າ niche ໃນຫ້ອງທົດລອງເປັນເຕັກໂນໂລຊີທີ່ມີຢູ່ທົ່ວທຸກແຫ່ງເຊັ່ນໂທລະສັບມືຖືແລະອິນເຕີເນັດ. ດັ່ງນັ້ນ "ຄໍາສາບານ AI" ຂອງ Google ຈາກປີ 2018 ຕ້ອງໄດ້ຮັບການປັບປຸງຕາມຄວາມເຫມາະສົມ.
Alphabet ກ່າວວ່າມັນມີແຜນທີ່ຈະໃຊ້ຈ່າຍ 75 ຕື້ໂດລາໃນປີຫນ້າ, ສ່ວນໃຫຍ່ເພື່ອສ້າງຄວາມສາມາດຂອງ AI ແລະໂຄງສ້າງພື້ນຖານ.
ທີ່ມາ: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm






(0)