
Дедушка сыновняя почтительность Согласен с подходом правительства к разработке этого закона. Этот законопроект также чётко определяет подход Вьетнама к искусственному интеллекту. Он не только благоприятствует развитию ИИ, но и содержит правила, обеспечивающие минимизацию рисков, связанных с ИИ.
В своем выступлении г-н Хьеу сосредоточился на дальнейшем анализе положений статьи 20 проекта Закона о механизме контролируемых испытаний для обеспечения осуществимости и создания наиболее благоприятных условий для развития систем ИИ, особенно отечественных систем ИИ.
По словам г-на Хьеу, механизм контролируемого тестирования для разработки искусственного интеллекта чрезвычайно важен. Поскольку искусственный интеллект – это совершенно новая проблема, затрагивающая множество различных областей, то, основываясь только на действующей правовой базе, он не сможет создать условий для развития ИИ. Основная цель механизма контролируемого тестирования ИИ – устранить правовые барьеры, препятствующие развитию моделей ИИ, позволяя проводить тестирование в ограниченных масштабах для получения данных, подтверждающих эффективность, тем самым способствуя долгосрочной реформе регулирования. Этот метод также в значительной степени соответствует нашему современному законодательству, а именно: институт должен первым проложить путь к развитию; то, что известно, управляется, то, что неизвестно и неясно, не управляется. Следовательно, регулирование механизма контролируемого тестирования должно быть в центре внимания правовой базы в области искусственного интеллекта. Поэтому ведомству-разработчику необходимо изучить этот вопрос и более подробно урегулировать его в проекте.
Что касается конкретных замечаний, г-н Хьеу предложил пересмотреть положения об освобождении организаций и лиц, участвующих в контролируемых испытаниях, или об уменьшении некоторых обязательств по соблюдению, как это предписано в настоящем Законе в пункте 2 статьи 20. Такие положения приводят к тому, что сфера освобождения ограничивается положениями настоящего Закона, в то время как системы искусственного интеллекта часто тесно связаны с другими соответствующими правовыми положениями.
«Тестирование ИИ в беспилотных транспортных средствах будет тесно связано с запретами, предусмотренными Законом о безопасности дорожного движения и Законом о защите персональных данных. Например, механизм тестирования ИИ в беспилотных пассажирских самолетах в Японии освобождён от некоторых авиационных правил. Или тестирование беспилотных автомобилей в Китае и Японии освобождён от положений Закона о защите персональных данных, который заключается в использовании данных изображений, которые не размывают лица участников дорожного движения, для обучения и тренировки зрения ИИ», — привёл пример г-н Хиеу и предложил агентству-разработчику изучить и пересмотреть положения пункта 2 статьи 20 в направлении чёткого определения организаций и лиц, участвующих в контролируемом тестировании, которые освобождены . или уменьшить определенные обязательства по соблюдению требований, предусмотренные настоящим Законом и другими соответствующими законами.
Относительно положения о поручении государственному органу по управлению в области искусственного интеллекта организовать прием, оценку и обработку досье для участия в мероприятиях по контролируемым испытаниям в соответствии с процедурой оценки и быстрого реагирования , г-н Хеу Согласен с этим положением, особенно с положением о быстрой оценке и реагировании. Однако Системы искусственного интеллекта — это не просто вопрос технологий и алгоритмов, но и междисциплинарный и междисциплинарный вопрос. Поэтому положения пункта 5, вероятно, применимы только к системам искусственного интеллекта общего назначения, таким как генеративный ИИ, такой как ChatGPT и Gemini. Что касается специализированных систем искусственного интеллекта, междисциплинарный характер этих систем весьма высок.
Дедушка сыновняя почтительность Например, система DrAid — это продукт искусственного интеллекта, поддерживающий диагностику по медицинским изображениям, разработанный компанией VinBrain . В случае регистрации для проведения испытаний Министерство здравоохранения не может избежать надзорной и управленческой роли. Поэтому в некоторых странах оценка и лицензирование контролируемых испытаний систем искусственного интеллекта возложены на междисциплинарный совет. В связи с этим рекомендуется пересмотреть положения пункта 5 следующим образом: «Государственный орган управления в области искусственного интеллекта руководит и координирует деятельность с соответствующими государственными органами управления для организации приема, оценки и обработки досье на участие в мероприятиях по контролируемым испытаниям».
Дедушка Хиеу также прокомментировал: В положениях статьи 20 по-прежнему отсутствуют положения о возмещении ущерба и страховой ответственности. Соответственно, действующие положения законопроекта В проекте не указано, кто несёт ответственность в случае причинения ущерба третьим лицам в результате испытаний. Как правило, организация или физическое лицо, проводившее испытания, обязаны возместить ущерб в гражданско-правовом порядке. Поэтому рекомендуется рассмотреть возможность добавления данного положения в проект.
« Кроме того, чтобы способствовать духу инноваций и поощрять его, мы считаем, что также необходимо исследовать и дополнять механизмы поддержки организаций и отдельных лиц, участвующих в тестировании, для предотвращения рисков . Например, механизм поддержки страхования ответственности перед проведением испытаний, или государство может поддержать часть бюджета (через различные фонды) для поощрения участия в испытаниях. Без этого механизма политики компании, разрабатывающие высокорисковые системы искусственного интеллекта (например, беспилотные автомобили) и находящиеся на этапе запуска, будут неохотно проводить испытания, поскольку одной аварии достаточно, чтобы привести к банкротству », — сказал г-н Хьеу.
Source: https://daidoanket.vn/de-xuat-bo-sung-co-che-ho-tro-cho-cac-to-chuc-ca-nhan-tham-gia-thu-nghiem-ai.html






Комментарий (0)