Что касается ИИ, Национальное собрание приняло Закон о цифровой технологической индустрии, который включает главу, регулирующую ИИ. Это обеспечивает первоначальную, принципиальную правовую основу для развития и применения ИИ. Однако эти положения еще не сформировали всеобъемлющую и достаточно открытую правовую базу для содействия исследованиям, разработке, внедрению и использованию ИИ, а также для создания полноценной экосистемы ИИ.
Кроме того, отсутствует механизм классификации и контроля рисков, связанных с системами ИИ; механизм проверки, лицензирования и мониторинга систем ИИ, особенно высокорисковых; а также отсутствуют механизмы и политика развития и привлечения высококвалифицированных кадров в сфере ИИ. Хотя в Постановлении № 57-NQ/TW четко указано на необходимость «сделать данные основным средством производства» и «развивать экономику данных и рынок данных», сбор, обработка, обмен и использование данных для обучения моделей ИИ в настоящее время сталкиваются с многочисленными трудностями. Взаимодействие и обмен данными между национальными и отраслевыми базами данных по-прежнему осуществляются медленно и не отвечают требованиям разработки крупномасштабных систем ИИ.
Стоит отметить, что у нас отсутствует правовой пробел в определении ответственности в случаях, когда искусственный интеллект причиняет ущерб. Этот правовой пробел является одной из самых серьёзных проблем при работе с последствиями, вызванными искусственным интеллектом. Вопрос в том, кто будет нести ответственность, когда система искусственного интеллекта причиняет ущерб, например, когда беспилотный автомобиль становится причиной аварии, когда диагностическое программное обеспечение выдаёт неверные результаты...? Разработчик, производитель, пользователь или сама система искусственного интеллекта? Отсутствие чётких правил, регулирующих ответственность, создаст огромный риск для потребителей и предприятий при использовании искусственного интеллекта.
Но и это ещё не всё: «высокое» развитие искусственного интеллекта вызывает опасения по поводу нетрадиционных угроз безопасности. Технология дипфейков используется для создания ложной информации, дискредитации организаций и отдельных лиц, а также для создания различных форм мошенничества. Если эта ситуация не будет контролироваться достаточно жёсткой правовой базой и строгими санкциями, это приведёт к социальной нестабильности.
Для реализации позиции партии и государства о том, что ИИ является передовым прорывом, способствующим укреплению национального потенциала в цифровую эпоху, разрабатываемый в настоящее время правительством проект закона об искусственном интеллекте придерживается следующего основополагающего принципа: закон ставит человечество в центр внимания, руководствуясь высшим принципом, что ИИ служит человечеству, а не заменяет его, и что люди контролируют ИИ при принятии важных решений; ИИ должен быть прозрачным, подотчетным и безопасным. Закон об искусственном интеллекте регулирует системы ИИ на основе уровней риска, поощряет отечественное развитие ИИ и самодостаточность в этой области, а также использует ИИ в качестве движущей силы для быстрого и устойчивого роста.
Для повышения эффективности управления и защиты прав пользователей проект закона устанавливает обязанности по управлению и реагированию на инциденты, связанные с ИИ. Соответственно, организации и частные лица, участвующие в разработке, предоставлении, развертывании и использовании систем ИИ, несут ответственность за обеспечение безопасности, защищенности и надежности во время работы системы; за заблаговременное выявление, предотвращение и оперативное устранение инцидентов, которые могут нанести вред людям, имуществу, данным или общественному порядку.
При возникновении технического инцидента, некорректных результатов или непредвиденного поведения системы искусственного интеллекта разработчик и поставщик обязаны незамедлительно принять технические меры для исправления, приостановки или отзыва потенциально опасной системы; уведомить компетентный государственный орган управления и скоординировать свои действия с ним для расследования и устранения инцидента. Развертыватель и пользователь обязаны регистрировать инцидент и незамедлительно уведомлять поставщика, а также координировать свои действия с соответствующими сторонами в процессе его устранения, и не должны произвольно вмешиваться или изменять систему без разрешения. Кроме того, законопроект определяет обязанности поставщика и развертывателя для систем искусственного интеллекта высокого риска...
Раннее принятие Вьетнамом Закона об искусственном интеллекте станет прорывом для ИИ, создаст благоприятную правовую среду для продвижения инноваций, повысит национальную конкурентоспособность и утвердит позицию страны, способной к технологической автономии.
Источник: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html










Комментарий (0)