El 9 de mayo, los diputados de la Asamblea Nacional debatieron en el pleno varios temas con opiniones diversas sobre el proyecto de Ley de la Industria de la Tecnología Digital . En particular, las regulaciones relacionadas con la inteligencia artificial (IA) siguieron recibiendo numerosos comentarios para garantizar su viabilidad y conformidad con las prácticas internacionales.
Al contribuir a la sesión de debate, el delegado Do Ngoc Thinh (delegación de Khanh Hoa ) dijo que la definición de IA en la Cláusula 10, Artículo 3 del proyecto de ley no refleja con precisión la naturaleza de la tecnología y no es coherente con el enfoque internacional.
Sugirió consultar la definición de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), adoptada por numerosos países y la Unión Europea. En consecuencia, la IA debe entenderse como «un sistema basado en máquinas que logra un objetivo, explícito o implícito, razonando a partir de datos de entrada para generar resultados en forma de predicciones, recomendaciones o decisiones que afectan a un entorno físico o virtual».
El delegado Thinh destacó que proporcionar una definición adecuada es una base importante para elaborar normas de gestión eficaces, facilitando al mismo tiempo la aplicación de la tecnología en la práctica.
En cuanto a la clasificación de los sistemas de inteligencia artificial (Artículo 46), la delegación de Khanh Hoa evaluó que la normativa vigente presenta similitudes con la Ley de IA de la UE, pero también presenta puntos confusos. Según la UE, la IA se clasifica principalmente según el nivel de riesgo, de "inaceptable" a "mínimo". Sin embargo, el borrador vietnamita añade un grupo de "sistemas de IA de alto impacto", que podría solaparse o entrar en conflicto con el grupo de "alto riesgo".
"Si esta clasificación no está vinculada a responsabilidades específicas en otras disposiciones, será difícil de implementar y carecerá de coherencia", afirmó el Sr. Thinh. Al mismo tiempo, sugirió aclarar la filosofía de la clasificación y garantizar que las regulaciones solo se apliquen a los sistemas de IA de alto riesgo, evitando así un endurecimiento innecesario de los sistemas de bajo riesgo, impulsando así la innovación y aprovechando eficazmente el potencial de la tecnología.
Compartiendo la misma opinión sobre la falta de claridad del reglamento, la delegada Le Thi Thanh Lam (delegación de Hau Giang) comentó que la definición de sistemas de IA de alto riesgo en la Cláusula 1, Artículo 46, sigue siendo general, sin proporcionar criterios específicos como el nivel de impacto, el número de usuarios o la capacidad de datos para determinar el riesgo. «Sin criterios específicos, es muy difícil de implementar en la práctica», afirmó la Sra. Lam.
La Sra. Lam también señaló que quizá no sea necesario regular la tecnología en detalle, y que, en cambio, el enfoque debería centrarse en gestionar el comportamiento de uso de la tecnología. En particular, en lo que respecta a las responsabilidades de los desarrolladores de IA en el Artículo 48, señaló que algunas obligaciones imponen una carga excesiva en este tema, especialmente en el contexto de la tecnología de código abierto.
El delegado Luu Ba Mac (delegación de Lang Son) propuso agregar regulaciones que requieran que los sistemas de IA con altos niveles de riesgo o grandes impactos en la sociedad sean inspeccionados y evaluados por una organización independiente designada o reconocida por el Estado antes de ser puestos en uso.
Actualmente, el artículo 44 del proyecto de ley solo describe seis principios para el desarrollo y uso de la IA, y asigna a los ministerios y sectores la responsabilidad de guiar su implementación. El artículo 46 menciona la gestión de los sistemas de IA (incluidos los de alto riesgo y alto impacto), pero no estipula claramente un mecanismo de inspección independiente antes de su implementación.
Aunque la cláusula 5, artículo 46 establece que el Gobierno proporcionará regulaciones detalladas, según el Sr. Mac, debe haber un principio claro en la ley sobre la inspección independiente, con el fin de aumentar la transparencia, la eficacia de la gestión estatal y crear tranquilidad para las personas y las empresas al utilizar IA, especialmente en el contexto actual de transformación digital.
Respecto de la cláusula 1, artículo 47, el proyecto estipula que los sistemas de IA que interactúan directamente con humanos deben notificar a los usuarios, a menos que el usuario "sepa obviamente" que está interactuando con IA.
Según la delegación de Lang Son, esta expresión no es clara porque "obviamente saber" es un concepto subjetivo, que depende del nivel, la experiencia y las circunstancias de cada persona. Las personas con conocimientos de tecnología pueden reconocer fácilmente la IA, pero las personas mayores y quienes no están familiarizadas con ella no. Por lo tanto, esta expresión puede utilizarse para ocultar la naturaleza de la IA, perjudicando a los usuarios.
Por lo tanto, el Sr. Mac propuso revisar el reglamento para que los sistemas de IA que interactúan con humanos notifiquen a los usuarios de forma clara y sencilla que están interactuando con la IA. Esta notificación debería estar habilitada por defecto, no oculta ni desactivada automáticamente, a menos que el usuario decida desactivarla.
Fuente: https://doanhnghiepvn.vn/cong-nghe/de-xuat-chi-siet-chat-ai-co-rui-ro-cao-tranh-can-tro-doi-moi-sang-tao/20250510094811591
Kommentar (0)