9 мая депутаты Национального собрания обсудили в зале ряд положений проекта закона «О цифровой индустрии технологий» , высказав по ним различные мнения. В частности, нормативные акты, касающиеся искусственного интеллекта (ИИ), продолжали получать многочисленные комментарии с целью обеспечения их реализуемости и соответствия международной практике.
В ходе обсуждения делегат До Нгок Тхинь (делегация Кханьхоа ) заявил, что определение ИИ в пункте 10 статьи 3 законопроекта неточно отражает природу технологии и не соответствует международному подходу.
Он предложил обратиться к определению Организации экономического сотрудничества и развития (ОЭСР), принятому многими странами и Европейским союзом. Соответственно, ИИ следует понимать как «машинную систему, которая достигает явной или неявной цели, анализируя входные данные и выдавая результаты в виде прогнозов, рекомендаций или решений, влияющих на физическую или виртуальную среду».
Делегат Тхинь подчеркнул, что предоставление подходящего определения является важной основой для разработки эффективных правил управления, а также облегчает применение технологий на практике.
Что касается классификации систем искусственного интеллекта (статья 46), делегация Кханьхоа отметила, что действующие правила имеют сходство с Законом ЕС об искусственном интеллекте, но также содержат неясные моменты. Согласно ЕС, искусственный интеллект классифицируется в основном по уровню риска: от «неприемлемого» до «минимального». Однако вьетнамский проект добавляет группу «систем искусственного интеллекта с высоким уровнем воздействия», которая может пересекаться или конфликтовать с группой «высокого риска».
«Если эта классификация не будет связана с конкретными обязанностями, предусмотренными другими положениями, её будет сложно внедрить, и она будет непоследовательной», — заявил г-н Тхинь. В то же время он предложил уточнить философию классификации и обеспечить, чтобы регулирование применялось только к высокорискованным системам ИИ, избегая ненужного ужесточения правил для систем с низким уровнем риска, тем самым поддерживая инновации и эффективно используя потенциал технологий.
Разделяя ту же точку зрения относительно неясности регулирования, делегат Ле Тхи Тхань Лам (делегация округа Хаузянг) отметила, что определение систем ИИ высокого риска в пункте 1 статьи 46 по-прежнему носит общий характер и не содержит конкретных критериев, таких как уровень воздействия, количество пользователей или объём данных для определения риска. «Без конкретных критериев это очень сложно реализовать на практике», — отметила г-жа Лам.
Г-жа Лэм также отметила, что, возможно, нет необходимости в детальном регулировании технологий, и что вместо этого следует сосредоточиться на управлении поведением пользователей технологий. В частности, говоря об обязанностях разработчиков ИИ в статье 48, она заявила, что некоторые обязательства возлагают на эту тему слишком большую нагрузку, особенно в контексте технологий с открытым исходным кодом.
Делегат Луу Ба Мак (делегация Ланг Шон) предложил добавить правила, требующие, чтобы системы ИИ с высоким уровнем риска или значительным воздействием на общество проходили проверку и оценку независимой организацией, назначенной или признанной государством, перед их вводом в эксплуатацию.
В настоящее время статья 44 законопроекта определяет лишь шесть принципов разработки и использования ИИ и возлагает на министерства и отрасли ответственность за их реализацию. В статье 46 упоминается управление системами ИИ (включая системы высокого риска и высокого воздействия), но не прописан механизм независимой проверки перед их внедрением.
Хотя в пункте 5 статьи 46 указано, что правительство предоставит подробные правила, по словам г-на Мака, в законе должен быть четкий принцип независимой проверки, чтобы повысить прозрачность, эффективность государственного управления и создать спокойствие для людей и предприятий при использовании ИИ, особенно в нынешних условиях цифровой трансформации.
Что касается пункта 1 статьи 47, то в проекте предусмотрено, что системы ИИ, которые напрямую взаимодействуют с людьми, должны уведомлять пользователей, за исключением случаев, когда пользователь «явно знает», что он взаимодействует с ИИ.
По мнению делегации Ланг Сона, это выражение неясно, поскольку «очевидно знать» — субъективное понятие, зависящее от уровня, опыта и обстоятельств каждого человека. Люди, разбирающиеся в технологиях, легко распознают ИИ, но пожилые люди и те, кто не знаком с технологиями, не могут. Соответственно, это выражение может использоваться для сокрытия природы ИИ, нанося вред пользователям.
Поэтому г-н Мак предложил пересмотреть регулирование, согласно которому системы искусственного интеллекта, взаимодействующие с людьми, должны чётко и понятно уведомлять пользователей о своём взаимодействии с ИИ. Это уведомление должно быть включено по умолчанию, а не автоматически скрываться или отключаться, если только пользователь намеренно не отключит его.
Источник: https://doanhnghiepvn.vn/cong-nghe/de-xuat-chi-siet-chat-ai-co-rui-ro-cao-tranh-can-tro-doi-moi-sang-tao/20250510094811591
Комментарий (0)