Basándose en la experiencia de muchos países y en los principios de la UNESCO, Vietnam está elaborando regulaciones para desarrollar la inteligencia artificial (IA) de manera ética y responsable.
En el taller "Desarrollo y aplicación responsables de la inteligencia artificial: teoría y práctica", celebrado la mañana del 28 de febrero en la Universidad de Derecho de la VNU, el viceministro de Ciencia y Tecnología, Bui The Duy, afirmó que la ética de la IA es un problema global complejo que está atrayendo a muchos países y organizaciones de todo el mundo, incluida la UNESCO, a participar en la búsqueda de soluciones.
«La UNESCO es una organización centrada en la cultura y la educación . Sin embargo, por primera vez, ha incluido la inteligencia artificial —un tema relacionado con la tecnología— en el debate. Esta medida incluso ha provocado que algunos países que se habían retirado de la organización decidan reincorporarse», afirmó.
Según el Viceministro, la ética de la IA influye en numerosos aspectos de la vida, como la sociedad, el derecho, la competencia política y la competencia comercial. Para que la inteligencia artificial se desarrolle de forma responsable, es fundamental una gestión rigurosa desde la definición de los modelos de IA y la recopilación de datos, hasta la finalización del sistema y su puesta en práctica. En el contexto vietnamita, este proceso exige la coordinación de ingenieros, científicos y organismos de gestión como el Ministerio de Ciencia y Tecnología, el Ministerio de Información y Comunicaciones y el Ministerio de Seguridad Pública .
En el mismo taller, el Sr. Duy afirmó que los principios de la UNESCO constituyen la base para que los países elaboren normativas sobre ética de la IA. En primer lugar, el modelo de inteligencia artificial debe ajustarse al diseño y las tareas establecidas desde el principio, para garantizar que no se produzcan acciones destructivas que perjudiquen a los seres humanos.
«La IA es completamente diferente de las tecnologías que los humanos han investigado. Mientras que los productos tecnológicos tradicionales solo siguen objetivos preexistentes, la IA puede crear nuevos caminos, fuera del control del desarrollador», afirmó. El viceministro también puso como ejemplo un caso en el que científicos pusieron a conversar a dos sistemas informáticos en inglés. Sin embargo, tras un tiempo, estos cambiaron repentinamente a comunicarse en un idioma desconocido, lo que impidió al equipo de investigación comprender el contenido de la conversación.
La cuestión de la igualdad y la equidad también es motivo de preocupación al desarrollar un modelo de IA. Según el Sr. Duy, desde la etapa de recopilación de información para el entrenamiento de la inteligencia artificial, puede surgir desigualdad que afecte negativamente a todo el sistema.
Con el modelo de reconocimiento de voz de IA, explicó que si la fuente de datos se recopila únicamente de habitantes de Hanói, el sistema presentará sesgos al interactuar con personas de otras regiones. «En términos más generales, las fuentes de datos de IA pueden generar injusticias entre géneros y grupos sociales, como las personas con discapacidad», añadió. Por lo tanto, para lograr un desarrollo justo de la IA, además de la participación de expertos legales, se requiere la contribución de psicólogos y sociólogos.
Además, el representante del Ministerio también hizo hincapié en algunos principios importantes de la ética de la IA, como garantizar la seguridad de los datos personales, respetar los derechos de autor y de propiedad intelectual, mejorar la productividad laboral, pero también la necesidad de proteger el medio ambiente y la seguridad social.
El viceministro Bui The Duy interviene en el taller. Foto: Hoang Giang
En el taller, los expertos señalaron que Vietnam está monitoreando la implementación de regulaciones sobre el desarrollo responsable de la IA en muchos países y regiones del mundo, con el fin de investigar y construir un marco legal adecuado a las prácticas nacionales.
En concreto, a finales de 2023, la Unión Europea aprobó los principios de la Ley de IA, cuya publicación está prevista para el segundo trimestre de 2024 como muy tarde. Se trata actualmente de la primera y más completa ley, con numerosas iniciativas para abordar los riesgos derivados de la IA.
«La Ley de IA de 2024 se basará en los riesgos de los modelos de IA para ajustar la legislación en consecuencia, incluyendo un entorno de pruebas y un enfoque más flexible en materia de ética, fiabilidad y responsabilidad», declaró el Dr. Do Giang Nam, de la Facultad de Derecho de la Universidad Nacional de Vietnam, durante el taller. Según él, la experiencia que Vietnam puede aplicar de la Ley de IA consiste en «no crear una ley definitiva, sino actualizarla y adaptarla continuamente al desarrollo de la tecnología de IA».
A diferencia de Europa, Estados Unidos busca en el sector privado soluciones para el desarrollo de la gobernanza de la IA. Estados Unidos es también el país con mayor número de demandas contra empresas de IA, principalmente relacionadas con violaciones de la privacidad y discriminación entre grupos de trabajadores. Según los expertos, en lugar de un conjunto fijo de leyes, Estados Unidos tiende a emitir numerosos principios para que las organizaciones y los individuos tengan flexibilidad en el proceso de desarrollo y aplicación de modelos de IA.
China y Japón son dos países que han logrado grandes avances en el desarrollo de una IA responsable. Desde 2019, este país de mil millones de habitantes ha publicado cuatro principios centrados en los modeladores, los usuarios, la gobernanza de la IA y las futuras direcciones de su desarrollo. En consecuencia, China ha optado por desarrollar la IA de forma autónoma y promover la gobernanza nacional, mientras que Japón aspira a un código de conducta de IA centrado en el ser humano, sin dejar de participar en foros internacionales.
«El proceso de gestión de la inteligencia artificial en países de la misma región que China y Japón puede servir de experiencia para el desarrollo responsable de la IA en Vietnam. Además de la legalidad, la responsabilidad en este caso es también la responsabilidad hacia la sociedad y las personas», afirmó la Dra. Nguyen Thi Que Anh, profesora asociada y directora de la Facultad de Derecho de la Universidad Nacional de Vietnam (VNU). Asimismo, Vietnam está elaborando la Ley de la Industria de la Tecnología Digital, que incluye contenido sobre la ética de los productos digitales, incluida la inteligencia artificial.
Hoang Giang
Enlace de origen






Kommentar (0)