ຄວາມສາມາດຂອງຕົວແບບໃນການໃຫ້ເຫດຜົນ, ແກ້ໄຂບັນຫາຄະນິດສາດທີ່ສັບສົນແລະຕອບຄໍາຖາມການຄົ້ນຄວ້າ ວິທະຍາສາດ ແມ່ນເຫັນວ່າເປັນບາດກ້າວທີ່ສໍາຄັນຕໍ່ຄວາມພະຍາຍາມເພື່ອພັດທະນາປັນຍາທົ່ວໄປປອມ (AGI) - ເຄື່ອງຈັກທີ່ມີຄວາມສາມາດທາງດ້ານສະຕິປັນຍາຂອງມະນຸດ.
OpenAI ກ່າວວ່າມັນເປັນ "ລະມັດລະວັງ" ໂດຍສະເພາະກ່ຽວກັບວິທີທີ່ມັນນໍາເອົາແບບຈໍາລອງ o1 ໄປສູ່ສາທາລະນະໂດຍຄວາມສາມາດທີ່ກ້າວຫນ້າຂອງມັນ. ພາບ: Getty Images
ອີງຕາມການ Financial Times, OpenAI ໄດ້ປະເມີນຄວາມສ່ຽງຂອງຮູບແບບໃຫມ່ເຫຼົ່ານີ້ເປັນ "ຂະຫນາດກາງ" ສໍາລັບບັນຫາທີ່ກ່ຽວຂ້ອງກັບອາວຸດເຄມີ, ຊີວະວິທະຍາ, ລັງສີແລະນິວເຄລຍ (CBRN), ສູງສຸດທີ່ບໍລິສັດເຄີຍປະເມີນ. ນີ້ຫມາຍຄວາມວ່າເຕັກໂນໂລຢີໄດ້ "ປັບປຸງຢ່າງຫຼວງຫຼາຍ" ຄວາມສາມາດຂອງຜູ້ຊ່ຽວຊານໃນການສ້າງອາວຸດຊີວະພາບ.
ຊອບແວ AI ທີ່ສາມາດໃຫ້ເຫດຜົນຢ່າງລະອຽດ, ໂດຍສະເພາະຢູ່ໃນມືຂອງນັກສະແດງທີ່ບໍ່ດີ, ສາມາດເພີ່ມຄວາມສ່ຽງຕໍ່ການລ່ວງລະເມີດ, ຜູ້ຊ່ຽວຊານກ່າວວ່າ.
ສາດສະດາຈານ Yoshua Bengio, ນັກວິທະຍາສາດ AI ຊັ້ນນໍາ ຂອງໂລກ ຈາກມະຫາວິທະຍາໄລ Montreal, ໄດ້ເນັ້ນຫນັກວ່າລະດັບຄວາມສ່ຽງຂະຫນາດກາງນີ້ເພີ່ມຄວາມຮີບດ່ວນສໍາລັບກົດລະບຽບຂອງ AI, ເຊັ່ນ SB 1047, ປະຈຸບັນໄດ້ຖືກໂຕ້ວາທີໃນຄາລິຟໍເນຍ. ຮ່າງກົດໝາຍນີ້ຮຽກຮ້ອງໃຫ້ບັນດາຜູ້ຜະລິດ AI ໃຊ້ມາດຕະການເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ຕົວແບບຂອງຕົນຖືກນຳໃຊ້ຢ່າງຜິດວິທີເພື່ອພັດທະນາອາວຸດຊີວະພາບ.
ອີງຕາມການ Verge, ຄວາມປອດໄພແລະຄວາມປອດໄພຂອງແບບຈໍາລອງ AI ໄດ້ກາຍເປັນຄວາມກັງວົນທີ່ສໍາຄັນຍ້ອນວ່າບໍລິສັດເຕັກໂນໂລຢີເຊັ່ນ Google, Meta, ແລະ Anthropic ກໍາລັງແຂ່ງຂັນເພື່ອສ້າງແລະປັບປຸງລະບົບ AI ທີ່ກ້າວຫນ້າ.
ລະບົບເຫຼົ່ານີ້ມີທ່າແຮງທີ່ຈະນໍາເອົາຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງໃນການຊ່ວຍເຫຼືອມະນຸດໃຫ້ສໍາເລັດວຽກງານແລະການຊ່ວຍເຫຼືອໃນຫຼາຍໆດ້ານ, ແຕ່ຍັງເຮັດໃຫ້ເກີດສິ່ງທ້າທາຍໃນດ້ານຄວາມປອດໄພແລະຄວາມຮັບຜິດຊອບທາງສັງຄົມ.
Cao Phong (ຕາມ FT, Reuters, The Verge)
ທີ່ມາ: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
(0)