
Выступая перед прессой на семинаре «Наука ради жизни», профессор Тоби Уолш отметил, что мошенничество с использованием искусственного интеллекта становится серьезной проблемой во многих странах, включая Вьетнам.
По словам профессора Тоби Уолша, самый простой способ защитить себя — проверить источник информации. Он рекомендует при получении звонка, электронного письма или текстового сообщения, якобы отправленного от банка или финансовой организации, проверить это, позвонив на горячую линию напрямую, а не отвечать на инструкции незнакомцев.
Он сказал, что даже видеозвонки , электронные письма или телефонные номера можно подделать с помощью всё более совершенных инструментов искусственного интеллекта. Для своей семьи он использует «секретный вопрос», известный только членам семьи, чтобы подтвердить свою личность и избежать злоупотреблений. По его словам, этот метод может использовать каждая вьетнамская семья для повышения информационной безопасности.

Говоря о развитии ответственного ИИ в более широком смысле, профессор Тоби Уолш подчеркнул, что регулирование должно быть обязательным. Учитывая огромную прибыль от ИИ, он заявил, что «только строгая правовая база может обеспечить надлежащее поведение и сбалансировать общественные и коммерческие интересы».
Отвечая на вопрос об ответственности за ошибки ИИ, он заявил: «ИИ — не человек, он не может нести ответственность. Именно компании, внедряющие и эксплуатирующие системы ИИ, должны нести ответственность за последствия». По его словам, национальные законодательства также не учитывают этот момент.
В то время как Вьетнам разрабатывает закон об ИИ, профессор Тоби Уолш, имеющий многолетний опыт исследований в этой области, отметил, что новые законы не всегда нужны, поскольку многие правила, касающиеся конфиденциальности или конкуренции, уже применимы в цифровой среде. Однако возникают новые риски, например, когда пользователи воспринимают ИИ как «терапевтов», что приводит к психологическому ущербу. По его словам, компании, разрабатывающие ИИ, также должны нести ответственность, если их продукты причиняют вред.
Профессор Тоби Уолш особо отметил риск негативного влияния искусственного интеллекта на детей, аналогичного влиянию социальных сетей. Он привёл в пример предстоящее введение в Австралии возрастного ограничения на использование социальных сетей и предложил странам принять аналогичные меры защиты для искусственного интеллекта.
Что касается данных, «топлива» ИИ, он предупредил, что излишняя несерьёзность может быть вредна. Использование работы автора для обучения ИИ без разрешения — это «воровство», и без решения, подобного модели потоковой передачи музыки , авторы потеряют мотивацию к творчеству. Профессор Тоби Уолш отметил, что Вьетнам должен принять решительные меры для защиты своей культуры, языка и интересов в эпоху ИИ.
Источник: https://www.sggp.org.vn/vien-si-cua-hiep-hoi-may-tinh-hoa-ky-chia-se-bi-kip-tranh-lua-dao-su-dung-ai-post826821.html






Комментарий (0)