Según el borrador, el Catálogo de Sistemas de IA de Alto Riesgo se basa en la evaluación de criterios de clasificación de riesgos para cada caso de uso específico, lo que garantiza claridad, transparencia y viabilidad en la implementación.
Un sistema de IA se clasifica como tal cuando cumple los siguientes principios: su resultado se utiliza como base o factor que influye significativamente en las decisiones relacionadas con los derechos, obligaciones e intereses legítimos de organizaciones e individuos; está determinado por su propósito y contexto de uso, no únicamente en función de la tecnología, los algoritmos o los modelos; y plantea un riesgo de consecuencias graves e irreparables si se producen errores o fallos de funcionamiento.
Además, también se tienen en cuenta los sistemas con un amplio alcance de implementación y un impacto a gran escala; los riesgos que no pueden controlarse completamente mediante la normativa legal vigente; y la posibilidad de aplicar uniformemente las obligaciones de gestión.
La categoría de sistemas de inteligencia artificial de alto riesgo se determina en función de una evaluación de los criterios de clasificación de riesgos para identificar casos de uso específicos.
El borrador identifica cinco grupos de criterios como base para la clasificación:
En primer lugar, afecta a los derechos humanos y a los derechos e intereses legítimos de las organizaciones y los individuos. Esto incluye sistemas que tienen el potencial de afectar directa y significativamente el derecho a la vida, el derecho a la protección de la salud, el derecho a la libertad personal, el derecho a la privacidad, el derecho a la igualdad y la no discriminación, el derecho al acceso a servicios esenciales y otros derechos legales estipulados por la ley.
En segundo lugar, los sistemas relacionados con la seguridad, la protección y el interés público son aquellos que pueden afectar seriamente el orden social y la seguridad, la ciberseguridad y la seguridad de la información; que corren el riesgo de ser mal utilizados o manipulados para comprometer la seguridad nacional; o que se utilizan como componentes de seguridad en productos y bienes de alto riesgo.
En tercer lugar, el campo y el contexto de uso. Borrador Se debe prestar especial atención a los sistemas de IA desplegados en sectores esenciales o que impactan directamente en la vida social, como la sanidad, la educación , el trabajo y el empleo, las finanzas, el crédito, los seguros, el transporte, la energía, las infraestructuras esenciales, la gestión estatal y la justicia; o aquellos que sirven a las actividades de gestión estatal y prestan servicios públicos.
En cuarto lugar, el nivel de automatización y el papel del control humano. Esto incluye los sistemas automatizados que toman decisiones o hacen recomendaciones con una influencia significativa, y también considera la capacidad de los humanos para supervisar, intervenir, ajustar o detener el sistema durante su funcionamiento.
En quinto lugar, el alcance de los usuarios y la magnitud del impacto. Esto se basa en el número de personas afectadas directa o indirectamente; el alcance de la implementación; el potencial de efectos en cascada; y la magnitud de las consecuencias a largo plazo que son difíciles de remediar si ocurre un incidente o si se hace un uso indebido del sistema.
Basándose en los criterios anteriores, el borrador propone una lista de sistemas de IA de alto riesgo que comprende cuatro grupos:
Grupo I: Sistemas de IA que afectan a los derechos humanos.
Grupo II: Sistemas de IA que afectan a la seguridad.
Grupo III: Sistemas de IA en sectores esenciales estrechamente relacionados con el interés público.
Grupo IV: Sistemas de IA con impactos o consecuencias a gran escala que son difíciles de remediar.
Se espera que la publicación de la Lista cree una base jurídica importante para la gestión, el seguimiento y el control de los riesgos en el desarrollo y la implementación de la IA, al tiempo que garantiza un equilibrio entre la promoción de la innovación y la protección de los derechos e intereses legítimos de las personas, las organizaciones y la sociedad.
El borrador completo se encuentra actualmente en proceso de consulta pública para su finalización antes de ser presentado a las autoridades competentes para su consideración y decisión.
Centro de Comunicación Científica y Tecnológica
Fuente: https://mst.gov.vn/de-xuat-danh-muc-he-thong-tri-tue-nhan-tao-co-rui-ro-cao-siet-quan-ly-cac-ung-dung-tac-dong-lon-den-xa-hoi-197260216132429727.htm






Kommentar (0)