En cuanto a la IA, la Asamblea Nacional ha promulgado la Ley de la Industria de Tecnología Digital , que incluye un capítulo que la regula. Esta constituye la base jurídica inicial para el desarrollo y la aplicación de la IA. Sin embargo, estas regulaciones aún no han creado un marco legal integral, lo suficientemente abierto como para facilitar la investigación, el desarrollo, la implementación y el uso de la IA, así como un ecosistema integral de IA.
Además, carecemos de un mecanismo para clasificar y controlar los riesgos de los sistemas de IA; de un mecanismo para inspeccionar, otorgar licencias y supervisar los sistemas de IA, especialmente los de alto riesgo; y de mecanismos y políticas para desarrollar y atraer recursos humanos de IA de alta calidad. Si bien la Resolución n.º 57-NQ/TW establece claramente la necesidad de "hacer de los datos el principal medio de producción" y "desarrollar la economía y el mercado de datos", la recopilación, el procesamiento, el intercambio y el uso de datos para el entrenamiento de modelos de IA se enfrentan actualmente a numerosas dificultades. La conexión y el intercambio de datos entre las bases de datos nacionales y las bases de datos de la industria aún son lentos y no cumplen los requisitos para el desarrollo de sistemas de IA a gran escala.
Cabe mencionar que no existe un vacío legal en materia de responsabilidad cuando la IA causa daños. Este vacío legal constituye uno de los mayores desafíos a la hora de abordar las consecuencias de la IA. La pregunta es: cuando un sistema de IA causa daños, como un coche autónomo que provoca un accidente o un software de diagnóstico médico que arroja resultados erróneos, ¿quién será responsable? ¿El desarrollador, el fabricante, el usuario o el propio sistema de IA? Al no contar con regulaciones específicas sobre responsabilidad, el uso de la IA representa un gran riesgo tanto para los consumidores como para las empresas.
Además, con el desarrollo superior de la IA, también existe preocupación por los riesgos de seguridad no tradicionales. La tecnología deepfake se utiliza de forma abusiva para crear información falsa, difamar a organizaciones e individuos, y crear formas de fraude. Si esta situación no se controla mediante un marco legal lo suficientemente estricto con sanciones lo suficientemente severas, causará inestabilidad social.
Para materializar la visión del Partido y del Estado de identificar la IA como punta de lanza y un avance para mejorar la capacidad nacional en la era digital, el Gobierno está elaborando el proyecto de Ley de Inteligencia Artificial con una perspectiva coherente: la Ley prioriza a las personas, con el principio supremo de que la IA está diseñada para servir a las personas, no para reemplazarlas, y las personas supervisan la IA en las decisiones importantes; la IA debe ser transparente, responsable y segura. La Ley de Inteligencia Artificial gestiona los sistemas de IA según el nivel de riesgo, fomenta el desarrollo nacional de la IA y su autonomía, y la considera un motor para un crecimiento rápido y sostenible.
Para garantizar una gestión más eficiente y proteger los derechos de los usuarios, el proyecto de Ley estipula la responsabilidad de gestionar y gestionar los incidentes de IA. En consecuencia, las organizaciones y personas que participan en el desarrollo, la provisión, la implementación y el uso de sistemas de IA son responsables de garantizar la seguridad, la protección y la fiabilidad durante su funcionamiento, detectando, previniendo y resolviendo proactivamente los incidentes que puedan causar daños a las personas, los bienes, los datos o el orden social.
En caso de incidente técnico, resultados incorrectos o comportamiento inesperado del sistema de IA, el desarrollador y el proveedor deben aplicar con prontitud medidas técnicas para reparar, suspender o revocar el sistema potencialmente dañino; notificar y coordinar con la agencia estatal competente para investigar y gestionar el incidente. El implementador y el usuario están obligados a registrar y notificar con prontitud al proveedor sobre el incidente y coordinar con las partes pertinentes para su solución, y no deben intervenir ni modificar el sistema arbitrariamente sin autorización. Además, el proyecto de ley también estipula las obligaciones del proveedor y el implementador para los sistemas de IA de alto riesgo.
La pronta promulgación de la Ley de Inteligencia Artificial en Vietnam creará un gran avance para la IA, creará un entorno legal favorable para promover la innovación, mejorará la competitividad nacional y afirmará la posición de un país con capacidad de ser autónomo en tecnología.
Fuente: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html
Kommentar (0)