Según el delegado Dong Ngoc Ba, la promulgación de la Ley de Inteligencia Artificial (IA) contribuirá a crear una base jurídica unificada y sincrónica, promoviendo el desarrollo y garantizando una gestión eficaz de riesgos en la investigación, el desarrollo y el uso de la IA, satisfaciendo los requisitos del desarrollo socioeconómico en la era digital.

El delegado afirmó que el organismo redactor ha sido muy activo y responsable, estudiando y asimilando numerosas opiniones del organismo revisor y de las agencias pertinentes para completar el proyecto de ley. El delegado valoró altamente los numerosos contenidos que se han asimilado y revisado en el nuevo borrador.
Al mismo tiempo, se recomienda continuar con la revisión y ajuste, especialmente asegurando la coherencia y sincronización con leyes relacionadas como el Código Civil, Ley de Calidad de Productos y Bienes, Ley de Propiedad Intelectual, Ley de Alta Tecnología, Ley de Normas y Reglamentos Técnicos; asegurando nuevo pensamiento legislativo y técnicas legislativas.
Además, el diputado Dong Ngoc Ba también hizo algunas recomendaciones específicas.
El Proyecto de Ley de Inteligencia Artificial (artículos 7 a 11) estipula la clasificación de la gestión de riesgos de los sistemas de IA en cuatro niveles: riesgo bajo, riesgo medio, riesgo alto y riesgo inaceptable.
El diputado Ba dijo que, dada la naturaleza de la IA, si el sistema de IA se considera un tipo de producto o mercancía, las disposiciones del proyecto de ley son irrazonables e inconsistentes, y no son compatibles con las disposiciones de la Ley de Calidad de Productos y Bienes (dividiendo los productos y bienes en 3 grupos: riesgo bajo, riesgo medio y riesgo alto).
Por lo tanto, se recomienda que el organismo redactor investigue y clasifique cuidadosamente los sistemas de IA de una manera que sea coherente con la Ley de Calidad de Productos y Bienes (3 niveles de riesgo) para facilitar la implementación.
En el caso de un sistema de IA con un riesgo inaceptable, esto debería considerarse una actividad prohibida y regularse específicamente como tal en el proyecto de ley. Es necesario añadir otros actos prohibidos en la investigación, el desarrollo y el uso de la IA (por ejemplo, usar la IA para violar la seguridad nacional, usar la IA para discriminar basándose en datos biométricos, etc.) para garantizar su exhaustividad y rigor, propuso el diputado Ba.
Respecto a la responsabilidad de indemnización por daños causados por los sistemas de IA, en el punto a, cláusula 3, artículo 30 del proyecto de Ley de Inteligencia Artificial estipula: “Para los sistemas de IA de alto riesgo: En caso de daños derivados de violaciones en la gestión y uso de los sistemas de IA, la organización o individuo infractor debe indemnizar los daños de acuerdo con las disposiciones del derecho civil”.
De acuerdo con el inciso 1 del artículo 601 del Código Civil, son fuentes de peligro extremo los vehículos de motor, los sistemas de transmisión de energía, las plantas industriales en funcionamiento, las armas, los explosivos, las sustancias inflamables, las sustancias tóxicas, las sustancias radiactivas, los animales salvajes y otras fuentes de peligro extremo prescritas por la ley.
Según el diputado Dong Ngoc Ba, el Código Civil distingue entre la indemnización por daños causados por una fuente de alto peligro y otros casos, especialmente en lo que respecta al factor de culpa para determinar la responsabilidad indemnizatoria. Con las disposiciones del proyecto de Ley de Inteligencia Artificial, en el punto a), cláusula 3, artículo 30, supra, no queda claro si un "sistema de IA de alto riesgo" es una "fuente de alto peligro". Por otro lado, desde el punto de vista técnico y tecnológico, un sistema de IA de alto riesgo tiene la naturaleza de una fuente de alto peligro.
Por lo tanto, el delegado propuso estudiar y revisar las disposiciones del punto a, cláusula 3, artículo 30 del proyecto de Ley de Inteligencia Artificial en el sentido de definir los sistemas de IA de alto riesgo como fuentes de peligro extremo, con el fin de tener una base para aplicar las normas sobre responsabilidad por indemnización por daños causados por los sistemas de IA de acuerdo a las disposiciones del Código Civil.
En cuanto a la innovación en el pensamiento y las técnicas legislativas, el diputado Ba propuso una revisión para garantizar que la Ley de Inteligencia Artificial no regule cuestiones bajo la autoridad del Gobierno . Específicamente, en el Capítulo VI (inspección, examen y gestión de infracciones), se considere no regular las inspecciones especializadas, sino dejar que el Gobierno las regule según su autoridad. Revisar el Capítulo VII (gestión estatal de la IA), eliminar las regulaciones bajo la autoridad del Gobierno, como las responsabilidades de gestión estatal de los ministerios... Proponer la fusión del Capítulo VI con el Capítulo VII, porque la inspección, el examen y la gestión de infracciones son esencialmente contenidos específicos de la gestión estatal de la IA.

El jefe adjunto de la delegación de la Asamblea Nacional de la provincia de Gia Lai, Siu Huong, expresó interés en las regulaciones sobre ética y responsabilidad en las actividades de IA en el capítulo 5.
Según el delegado Huong, actualmente, muchos modelos de IA se entrenan recopilando datos, obras de arte y contenido creativo de internet sin el consentimiento del autor, y no existe ningún mecanismo para compensarlo. Esto supone un riesgo potencial de infringir los derechos de propiedad intelectual de los creadores de contenido.
Por lo tanto, el delegado sugirió que la agencia redactora considere añadir al Capítulo 5 una regulación que establezca que los desarrolladores de sistemas de IA deben contar con un mecanismo de permisos claro, que permita a los propietarios de contenido decidir si aceptan o no el uso de su trabajo para fines de entrenamiento de IA. Al mismo tiempo, la investigación debería establecer un mecanismo de compensación o distribución de beneficios para los autores cuando su trabajo se utilice en el entrenamiento de modelos de IA.

Al participar en el debate, el diputado Nguyen Van Canh (miembro de la delegación de la Asamblea Nacional de la provincia de Gia Lai) planteó la cuestión desde la perspectiva de un consumidor preocupado cuando utiliza productos de "IA": si ocurre un incidente fuera de control que cause daños, quién será responsable de la compensación.
Según el diputado Canh, el proyecto de Ley de Inteligencia Artificial no explica el término "productos que utilizan tecnología de IA". Los consumidores solo conocen el producto, pero solo los investigadores y científicos saben qué es la tecnología de IA.
El diputado Canh propuso distinguir claramente la IA como producto de entrada, herramienta, producto semiacabado o producto terminado. A partir de ahí, se establecerán regulaciones específicas sobre la responsabilidad del proveedor.
Por ejemplo, la IA solo está integrada en el producto. Cuando se produce un daño, el vendedor de ese producto debe asumir toda la responsabilidad y no puede atribuirlo a la IA, ya que la empresa que fabrica la IA me la vende, no tengo control sobre ella —analiza el diputado Canh—.
Fuente: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html






Kommentar (0)