En lo que respecta a la IA, la Asamblea Nacional promulgó la Ley de la Industria de las Tecnologías Digitales , que incluye un capítulo que la regula. Esto proporciona una base jurídica inicial y sólida para el desarrollo y la aplicación de la IA. Sin embargo, estas regulaciones aún no conforman un marco jurídico integral y suficientemente abierto que facilite la investigación, el desarrollo, la implementación y el uso de la IA, así como un ecosistema de IA completo.
Además, carecemos de mecanismos para clasificar y controlar los riesgos de los sistemas de IA; mecanismos para probar, licenciar y monitorear dichos sistemas, especialmente los de alto riesgo; y mecanismos y políticas para desarrollar y atraer recursos humanos de IA altamente calificados. Si bien la Resolución N° 57-NQ/TW establece claramente la necesidad de "convertir los datos en el principal medio de producción" y "desarrollar la economía y el mercado de datos", la recopilación, el procesamiento, el intercambio y el uso de datos para el entrenamiento de modelos de IA enfrentan actualmente numerosas dificultades. La conexión e intercambio de datos entre bases de datos nacionales y sectoriales es lenta y no cumple con los requisitos para el desarrollo de sistemas de IA a gran escala.
Es importante destacar que carecemos de responsabilidad legal cuando la IA causa daños. Esta laguna jurídica representa uno de los mayores desafíos para abordar las consecuencias de los daños provocados por la IA. La pregunta es: cuando un sistema de IA causa daños, como accidentes provocados por vehículos autónomos o resultados erróneos en software de diagnóstico médico , ¿quién será el responsable? ¿El desarrollador, el fabricante, el usuario o el propio sistema de IA? Sin una normativa específica sobre responsabilidad, esto supone un riesgo significativo para los consumidores y las empresas que utilizan IA.
Además, el rápido desarrollo de la IA también suscita preocupación por los riesgos de seguridad no tradicionales. La tecnología deepfake se está utilizando indebidamente para generar desinformación, difamar a organizaciones e individuos y cometer diversas formas de fraude. Si esta situación no se controla mediante un marco legal suficientemente estricto con sanciones severas, provocará inestabilidad social.
Para materializar la visión del Partido y del Estado de que la IA representa un avance revolucionario para potenciar la capacidad nacional en la era digital, el proyecto de Ley de Inteligencia Artificial, actualmente en desarrollo por el Gobierno, se rige por el siguiente principio fundamental: la ley sitúa a la humanidad en el centro, con el principio supremo de que la IA está al servicio de la humanidad, no la sustituye, y que los seres humanos supervisan la IA en las decisiones cruciales; la IA debe ser transparente, responsable y segura. La Ley de Inteligencia Artificial gestiona los sistemas de IA en función de los niveles de riesgo, fomenta el desarrollo nacional de la IA y la autosuficiencia en este campo, y la utiliza como motor de un crecimiento rápido y sostenible.
Para garantizar una mayor eficiencia en la gestión y proteger los derechos de los usuarios, el proyecto de ley estipula las responsabilidades para la gestión y el manejo de incidentes de IA. En consecuencia, las organizaciones y personas involucradas en el desarrollo, suministro, implementación y uso de sistemas de IA son responsables de garantizar la seguridad y la confiabilidad durante el funcionamiento del sistema; así como de detectar, prevenir y resolver de manera proactiva los incidentes que puedan perjudicar a las personas, la propiedad, los datos o el orden social.
Cuando se producen fallos técnicos, desviaciones en los resultados o comportamientos inesperados en los sistemas de IA, los desarrolladores y proveedores deben implementar de inmediato medidas técnicas para corregir la situación, suspender temporalmente o retirar el sistema potencialmente dañino, y notificar y coordinar con los organismos estatales competentes para la investigación y gestión. El implementador y los usuarios están obligados a registrar e informar de inmediato los incidentes al proveedor y cooperar con las partes pertinentes en el proceso de corrección. No se les permite interferir ni modificar el sistema de forma independiente sin autorización. Además, el proyecto de ley también estipula las obligaciones de los proveedores e implementadores con respecto a los sistemas de IA de alto riesgo…
La pronta promulgación de la Ley de Inteligencia Artificial en Vietnam supondrá un gran avance para la IA, fomentando un entorno jurídico favorable para promover la innovación, mejorar la competitividad nacional y reafirmar la posición del país como nación tecnológicamente autosuficiente.
Fuente: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html






Kommentar (0)