ИИ использовался и используется для совершения незаконных и преступных действий. Поэтому необходимо разрабатывать и совершенствовать политику и законы в отношении ИИ.
Обзор семинара - Фото: SIU
Этот вопрос поднимали многие делегаты на семинаре по праву в области искусственного интеллекта, организованном Международным университетом Сайгона утром 4 января.
Необходима правовая база для ИИ
На семинаре профессор, доктор Фан Чунг Ли, бывший председатель юридического комитета Национальной ассамблеи, заявил, что во Вьетнаме искусственный интеллект (ИИ) постепенно входит в жизнь человека, все больше доказывая свою важную роль в содействии социально -экономическому развитию и обеспечении национальной безопасности.
Наряду с положительными аспектами ИИ имеет и отрицательное воздействие, вызывая глубокую обеспокоенность потенциальными рисками с этической, социальной и правовой точек зрения.
Кроме того, ИИ использовался и используется для совершения незаконных и преступных действий. Поэтому разработка и завершение политики и законов в области искусственного интеллекта во Вьетнаме является неотложной задачей.
Проф. доктор Фан Чунг Ли - Фото: SIU
По словам г-на Ли, необходимо создать правовую базу для содействия развитию и применению ИИ. В частности, государству следует поощрять компании, организации и отдельных лиц разрабатывать, предоставлять, внедрять и использовать надёжные и ориентированные на человека системы ИИ, а также поощрять малые и средние предприятия предоставлять системы ИИ для участия в тестировании цифровых технологических продуктов и услуг.
Гражданское право и право интеллектуальной собственности должны регулировать вопрос права собственности на продукты ИИ. Кто будет владеть продуктами искусственного интеллекта: люди или ИИ?
При разработке систем искусственного интеллекта с участием людей закон должен уделять особое внимание соблюдению прав и достоинства участвующих лиц.
По мере возможности, в зависимости от характеристик применяемой технологии, разработчикам следует принимать меры, гарантирующие, что они не приведут к дискриминации или несправедливости из-за предвзятости данных при обучении систем ИИ.
Разработчикам необходимо принять меры предосторожности, чтобы гарантировать, что системы ИИ не нарушают общечеловеческие ценности и социальную этику, согласно основным принципам Вьетнама. В частности, это касается таких базовых ценностей, как патриотизм, солидарность, самостоятельность, преданность, честность, ответственность, дисциплина, креативность, защита пространственной конфиденциальности, конфиденциальность информации (персональных данных) и конфиденциальность коммуникаций...
Кто несет ответственность за ущерб, причиненный ИИ?
Доцент, доктор Ле Бо Линь на конференции. Фото: SIU
Что касается разработки нового закона об искусственном интеллекте, доцент Института права и социальных исследований, доктор Ле Бо Линь, бывший заместитель генерального секретаря Национальной ассамблеи , предложил министерству разработать этические принципы разработки, внедрения и применения искусственного интеллекта. Цифровые технологические продукты и контент, созданные с помощью искусственного интеллекта, должны быть четко идентифицированы как искусственно созданные или сконструированные.
Системы ИИ будут классифицироваться по уровням риска, исходя из их воздействия на здоровье, законные права и интересы организаций и отдельных лиц, безопасность людей или имущества, безопасность важных национальных информационных систем и критически важной инфраструктуры. Эти классификации позволяют управлять системами ИИ в зависимости от их различных уровней риска.
Кроме того, одним из первых правовых вопросов, связанных с искусственным интеллектом, является интеллектуальная собственность и авторское право.
В развитии ИИ создание алгоритмов, моделей и обучающих данных играет важнейшую роль. Однако действующее законодательство в области интеллектуальной собственности не поспевает за развитием технологий.
В частности, сложно определить, кому принадлежат авторские права на продукты, созданные с помощью ИИ. Если ИИ создаёт произведение искусства или программу, возникает вопрос, кто владеет продуктом: ИИ или человек, создавший его. Действующие правила могут быть не совсем адекватными, что может привести к потенциальным спорам в будущем.
Также поднимается вопрос ответственности в случае причинения ущерба искусственным интеллектом. ИИ может принимать решения без вмешательства человека, что создаёт сложную правовую ситуацию. Когда система искусственного интеллекта совершает ошибку или причиняет ущерб человеку, возникает вопрос: кто несёт ответственность? Производитель, разработчик или отдельный пользователь?
Источник: https://tuoitre.vn/ai-gay-thiet-hai-ai-chiu-trach-nhiem-20250104134035537.htm
Комментарий (0)