Основываясь на опыте многих стран и принципах ЮНЕСКО, Вьетнам разрабатывает правила для развития искусственного интеллекта (ИИ) этичным и ответственным образом.
На семинаре «Разработка и применение ответственного искусственного интеллекта: теория и практика», который состоялся утром 28 февраля в Юридическом университете VNU, заместитель министра науки и технологий Буй Тхе Зуй заявил, что этика ИИ — это сложная глобальная проблема, которая привлекает к участию в поиске решений многие страны и организации по всему миру, включая ЮНЕСКО.
«ЮНЕСКО — это организация, которая фокусируется на культуре и образовании . Однако впервые эта организация вынесла на обсуждение тему искусственного интеллекта — связанную с технологиями. Этот шаг даже побудил некоторые страны, покинувшие организацию, принять решение о повторном присоединении», — сказал он.
По словам заместителя министра, этика ИИ затрагивает многие аспекты жизни, такие как общество, право, политическая конкуренция и коммерческая конкуренция. Для ответственного развития искусственного интеллекта необходимо серьезно отнестись к управлению, начиная с этапа определения моделей ИИ, сбора данных и заканчивая завершением разработки системы и ее внедрением. В практике Вьетнама этот процесс требует координации действий инженеров, ученых и управленческих органов, таких как Министерство науки и технологий, Министерство информации и коммуникаций и Министерство общественной безопасности .
На семинаре г-н Дуй также заявил, что принципы ЮНЕСКО являются основой для разработки странами правил этики ИИ. Во-первых, модель искусственного интеллекта должна соответствовать изначально заложенному замыслу и поставленным задачам, чтобы гарантировать отсутствие деструктивных действий, наносящих вред человеку.
«ИИ полностью отличается от технологий, которые исследовали люди. В то время как старые технологические продукты следуют только существующим целям, ИИ может создавать новые направления самостоятельно, вне контроля разработчика», — сказал он. Заместитель министра также привел пример, когда ученые использовали две компьютерные системы для общения на английском языке. Однако через некоторое время они внезапно перешли на общение на незнакомом языке, из-за чего исследовательская группа не смогла понять содержание разговора.
Вопрос равенства и справедливости также является предметом беспокойства при построении модели ИИ. По словам г-на Дая, неравенство может возникнуть уже на этапе сбора информации для обучения искусственного интеллекта и оказать негативное влияние на всю систему.
Говоря о модели распознавания голоса на основе искусственного интеллекта, он привел пример того, что если бы источники данных собирались только от жителей Ханоя, система была бы предвзятой при взаимодействии с людьми из других регионов. «В более широком смысле источники данных ИИ могут стать причиной несправедливости между полами и социальными группами, такими как люди с ограниченными возможностями», — сказал он. Поэтому для справедливого развития ИИ, помимо участия юристов, необходимо также участие психологов и социологов.
Кроме того, представитель министерства также подчеркнул некоторые важные принципы этики ИИ, такие как обеспечение безопасности персональных данных, уважение авторских прав, прав интеллектуальной собственности, повышение производительности труда, но при этом необходимость защиты окружающей среды и социальной безопасности.
На семинаре выступил заместитель министра Буй Тхе Дуй. Фото: Хоанг Джанг
На семинаре эксперты заявили, что Вьетнам следит за реализацией нормативных актов по ответственной разработке ИИ во многих странах и регионах мира с целью проведения исследований и создания правовой базы, подходящей для внутренней практики.
В частности, в конце 2023 года Европейский союз одобрил принципы Закона об искусственном интеллекте, который, как ожидается, будет обнародован не позднее второго квартала 2024 года. На данный момент это первый и наиболее всеобъемлющий законодательный акт, содержащий множество инициатив, направленных на борьбу с рисками, связанными с искусственным интеллектом.
«Закон об искусственном интеллекте 2024 года будет основан на рисках моделей искусственного интеллекта, чтобы соответствующим образом скорректировать законодательство, наряду с правовой базой «песочницы» и «мягким» подходом к этике, надежности и ответственности», — сказал на семинаре доктор До Джианг Нам из Юридического университета VNU. По его словам, опыт Закона об ИИ, который Вьетнам может применить, заключается «не в том, чтобы создать закон раз и навсегда, а в том, чтобы постоянно обновлять его и адаптировать к развитию технологий ИИ».
В отличие от Европы, США рассчитывают на реакцию частного сектора в формировании системы управления ИИ. США также являются страной с наибольшим количеством судебных исков против компаний, занимающихся разработкой искусственного интеллекта, в основном связанных с нарушением конфиденциальности и дискриминацией между группами работников. По мнению экспертов, вместо фиксированного набора законов в США принято издавать множество принципов, чтобы организации и отдельные лица могли проявлять гибкость в процессе разработки и применения моделей ИИ.
Китай и Япония также являются странами, добившимися больших успехов в развитии ответственного ИИ. С 2019 года страна с населением в один миллиард человек опубликовала четыре принципа, посвященных разработчикам моделей, пользователям, управлению ИИ и будущим направлениям развития ИИ. Соответственно, Китай выбирает как автономную разработку ИИ, так и содействие внутреннему управлению, в то время как Япония стремится к кодексу поведения в сфере ИИ, ориентированному на человека, при этом обеспечивая участие в международных форумах.
«Процесс управления искусственным интеллектом в странах того же региона, таких как Китай и Япония, может стать опытом для ответственного развития ИИ во Вьетнаме. Помимо юридической ответственности, здесь также подразумевается ответственность перед обществом и людьми», — сказала доцент, доктор Нгуен Тхи Куэ Ань, ректор юридического университета VNU. Кроме того, Вьетнам также разрабатывает Закон об индустрии цифровых технологий, который включает положения об этике цифровых продуктов, включая искусственный интеллект.
Хоанг Жанг
Ссылка на источник
Комментарий (0)