Опыт других стран показывает, что для регулирования вопросов, связанных с ИИ, включая контроль рисков при разработке, развертывании и применении ИИ, одних лишь правовых норм недостаточно, необходимо применять и другие инструменты политики, называемые «мягким правом», такие как этические принципы, кодексы поведения и технические рекомендации отрасли.
Меры контроля должны соответствовать уровню риска, чтобы избежать чрезмерного контроля. Для самых высоких уровней риска необходимы строгие, обязательные правовые нормы. На следующем уровне риска правовые требования должны быть «мягче». При низком уровне риска просто применяйте рекомендации, технические стандарты и добровольные кодексы поведения. Контроль рисков ИИ должен основываться на объеме и уровне полномочий субъектов; Субъект, обладающий большей властью, например, государство или крупные технологические компании, должен подвергаться более жесткому контролю.
Возможности и риски ИИ для общества и человека можно корректировать и реагировать на каждый этап жизненного цикла системы ИИ, включая: исследования, разработку, развертывание и применение. В жизненном цикле системы ИИ необходимо четко и конкретно определить обязанности каждого субъекта: разработчика ИИ, разработчика внедрения/приложения, конечного пользователя.
При создании общей правовой базы в области ИИ необходимы следующие основные положения. Во-первых , предоставьте четкую концепцию ИИ, систем ИИ и моделей ИИ в качестве отправной точки для другого нормативного контента по этой технологии. Во-вторых, определить основные принципы управления ИИ, включая: принятие людей, человеческих ценностей, прав человека в качестве основы всего жизненного цикла систем ИИ, прозрачность, подотчетность и надежность. В-третьих, определите уровни риска и меры, соответствующие уровням риска. В-четвертых, определить конкретные обязанности соответствующих субъектов в жизненном цикле систем ИИ.
В частности, системы ИИ должны быть ограничены в случаях, когда они представляют угрозу жизни или безопасности отдельных лиц или групп. Системы искусственного интеллекта, вызывающие дискриминацию, например, по признаку возраста, пола, религии или по социальным показателям, приводящую к неблагоприятному обращению, должны быть запрещены. Общая правовая база должна требовать алгоритмической прозрачности в процессах принятия решений ИИ для предотвращения предвзятости и дискриминационных результатов; Пример алгоритма подбора персонала.
Наряду с общей правовой базой необходимо издать правовые документы, возможно, указы и циркуляры, которые предусматривают более конкретные правила по техническим и специализированным вопросам, связанным с ИИ. Например, корректировка алгоритмов для обеспечения прозрачности, справедливости и предотвращения дискриминации; регулировать использование технологии распознавания лиц; Использование ИИ в некоторых областях несет в себе множество потенциальных рисков, таких как набор, использование, оценка труда...
Учитывая комплексный характер ИИ, следует избегать фрагментарных подходов к регулированию ИИ. Для координации деятельности различных ведомств можно рассмотреть возможность создания междисциплинарного механизма, который будет представительным, эффективным и будет уравновешивать различные взгляды и перспективы, чтобы политика соответствовала различным общим интересам. Необходимо вовлекать различные заинтересованные стороны общества с самого начала жизненного цикла системы ИИ; не только технические эксперты, бизнесмены, но и юристы, эксперты по правам человека, представители сообществ, общественных организаций и других групп, на которые могут повлиять системы ИИ.
Принятие мер регулирования в сфере ИИ должно быть направлено на социальную справедливость, обеспечение прав и льгот, а также вовлечение уязвимых групп, таких как люди с ограниченными возможностями, этнические меньшинства, бедные, женщины и дети. Для этих уязвимых групп необходимы особые меры защиты; Системы искусственного интеллекта, которые используют уязвимости, потенциально нанося психологический или поведенческий вред, должны строго регулироваться. Это включает в себя обеспечение того, чтобы технологии ИИ не манипулировали уязвимыми людьми и не принуждали их действовать вопреки их интересам.
Источник: https://daibieunhandan.vn/kiem-soat-rui-ro-cua-tri-tue-nhan-tao-mot-cach-cong-bang-post411511.html
Комментарий (0)