Классификация систем искусственного интеллекта по четырем уровням риска
Утром 21 ноября Национальное собрание заслушало презентацию и отчет по рассмотрению проекта закона об искусственном интеллекте.
Представляя доклад, министр науки и технологий Нгуен Мань Хунг заявил, что законопроект был разработан с целью создания прорывного правового коридора для искусственного интеллекта, создания благоприятной правовой среды для продвижения инноваций, повышения национальной конкурентоспособности и в то же время управления рисками, защиты национальных интересов, прав человека и цифрового суверенитета.

Доклад представил министр науки и технологий Нгуен Мань Хунг.
Для регулирования систем искусственного интеллекта законопроект принимает подход, основанный на оценке рисков, классифицируя искусственный интеллект по четырем уровням и возлагая соответствующие обязательства.
Системы искусственного интеллекта классифицируются по четырем уровням риска: Неприемлемый риск: система может нанести серьезный, непоправимый вред.
Высокий уровень риска — система, способная причинить вред жизни, здоровью, правам и законным интересам. Средний уровень риска — система, способная ввести пользователей в заблуждение, манипулировать ими или обмануть их. Низкий уровень риска — все остальные случаи.
Поставщик должен самостоятельно классифицировать систему перед ее выпуском в обращение и несет ответственность за результаты классификации.
В отношении систем среднего и высокого уровня риска поставщик обязан уведомить Министерство науки и технологий через единый портал. Компетентный орган имеет право пересмотреть и пересмотреть классификацию.
Закон устанавливает ответственность за прозрачность, маркировку и подотчётность. В частности, исполнительная сторона должна чётко уведомлять и маркировать контент, созданный или отредактированный с использованием фейковых элементов, имитирующий реальных людей (дипфейк), который может вызвать недопонимание, или контент, созданный искусственным интеллектом в коммуникационных и рекламных целях.
Поставщики и исполнители должны разъяснять результаты обработки высокорисковых систем по запросу заинтересованных сторон.
В случае возникновения инцидента стороны обязаны незамедлительно исправить, приостановить или отозвать систему, сообщив об этом через единый портал. В целях управления рисками, учитывая неприемлемый уровень риска, запрещается разработка, поставка, развертывание и использование этих систем в любой форме.
В запрещенный список включены системы, используемые для совершения действий, запрещенных законом, использующие поддельные элементы для обмана, манипулирования и причинения серьезного вреда, эксплуатирующие слабости уязвимых групп (детей, пожилых людей и т. д.) или создающие поддельный контент, наносящий серьезный ущерб национальной безопасности.
В случае систем высокого риска необходимо провести оценку их пригодности перед распространением или вводом в эксплуатацию.
Оценка может осуществляться в форме сертификации соответствия (проводимой аккредитованным органом) или надзора за соответствием (самооценки поставщика).
Премьер-министр утверждает список систем искусственного интеллекта с высокой степенью риска, соответствующий каждой форме оценки.
Устанавливаются подробные обязательства для поставщика (внедрение мер по управлению рисками, управление данными обучения, подготовка технической документации, обеспечение контроля со стороны персонала) и исполнителя (работа по назначению, обеспечение безопасности, выполнение обязательств по прозрачности).
Иностранные поставщики с системами высокого риска должны иметь уполномоченного представителя во Вьетнаме, а также обязаны учредить юридическое лицо во Вьетнаме, если система подлежит обязательной сертификации соответствия.
Для моделей со средним, низким уровнем риска и многоцелевых моделей система среднего уровня риска должна обеспечивать прозрачность и маркировку.
В проекте также определены обязанности разработчиков и пользователей универсальных моделей искусственного интеллекта по обеспечению соблюдения вьетнамского законодательства. К моделям искусственного интеллекта общего назначения, представляющим системный риск (потенциал далеко идущих последствий), применяются расширенные обязательства, включая оценку воздействия, ведение технической документации и уведомление Министерства науки и технологий.
Однако модели ИИ общего назначения с открытым исходным кодом освобождены от этих расширенных обязательств; если модель с открытым исходным кодом используется для разработки системы ИИ, организация, использующая ее, должна осуществлять управление рисками этой системы.
Рассмотрите возможность использования невидимой маркировки для снижения затрат.
С точки зрения экспертизы председатель Комитета по науке, технологиям и окружающей среде Нгуен Тхань Хай заявил, что Комитет считает, что маркировка продуктов ИИ является обязательной этической и юридической ответственностью для создания доверия в эпоху ИИ.

Председатель Комитета по науке, технологиям и окружающей среде Нгуен Тхань Хай.
Комитет в целом согласен с положениями о маркировке, содержащимися в законопроекте, однако рекомендует обратиться к международному опыту в отношении продуктов, созданных с помощью ИИ, чтобы обеспечить их соответствие практическим условиям Вьетнама.
Для продуктов и аппаратных устройств с приложениями ИИ (таких как холодильники, телевизоры, стиральные машины и т. д.) рекомендуется изучить и рассмотреть возможность применения невидимых водяных знаков для сокращения затрат и процедур, сохраняя при этом управляемость и прослеживаемость.
При этом в проекте Закона предлагается закрепить принципы предоставления Правительством подробных инструкций по формам, техническим стандартам и изъятиям.
Предлагается изменить правила маркировки с обязательных на рекомендуемые, с минимальными техническими рекомендациями.
В то же время необходимо запустить пилотный механизм добровольной маркировки в ряде областей; одновременно с этим необходимо усилить коммуникацию, чтобы избежать недопонимания, что «отсутствие маркировки означает, что это не продукт ИИ».
Что касается классификации рисков, Комитет считает, что четырехуровневая классификация, в то время как Закон о качестве продукции и товаров классифицирует продукцию и товары на три типа, является непоследовательной, если ИИ рассматривать как продукцию и товары.
Правила сертификации соответствия систем искусственного интеллекта повышенной степени риска не соответствуют принципам управления продукцией и товарами повышенной степени риска, установленным Законом о качестве продукции и товаров.
Поэтому рекомендуется продолжить изучение и тщательное сравнение положений законопроекта с действующим законодательством.
Источник: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Комментарий (0)