Según el delegado Pham Trong Nghia, es necesario construir pronto un corredor legal sobre inteligencia artificial (IA) para que Vietnam no se convierta en un campo de pruebas para productos tecnológicos de alto riesgo.
"Debe existir una ley o resolución que estipule los principios y mecanismos legales para las pruebas controladas de la formación de Sandboxes (pruebas de nuevas tecnologías y nuevos modelos de negocio cuando aún no se conoce la gestión) en cada industria y sector específico", declaró el Sr. Nghia al comentar sobre el proyecto de ley y el programa de ordenanzas la mañana del 23 de mayo.
Como Secretario del Consejo Científico de la Fundación Nacional para el Desarrollo Científico y Tecnológico, el Sr. Nghia considera que el marco legal debe regular los derechos y obligaciones de los propietarios de dispositivos inteligentes como robots, vehículos autónomos y drones. Un sistema legal completo e integral es fundamental para que Vietnam no se quede atrás en la cuarta revolución industrial, aproveche las ventajas de forma proactiva y prevenga riesgos.
El delegado Pham Trong Nghia habla en el salón de la Asamblea Nacional la mañana del 23 de mayo. Foto: National Assembly Media
Según él, la resolución del Politburó de 2019 exige la creación de instituciones que faciliten la participación proactiva en la cuarta revolución industrial y el proceso nacional de transformación digital. El Politburó también solicitó la pronta promulgación de un marco institucional de pruebas controladas para las nuevas tecnologías, productos, servicios y modelos de negocio que surjan de la cuarta revolución industrial. En 2019, el Gobierno ordenó el desarrollo de un mecanismo de pruebas controladas para las actividades de tecnología financiera, pero este aún no se ha promulgado.
El Sr. Nghia afirmó que, si bien no existe un marco legal global común, algunos países y regiones han aprobado regulaciones para crear un corredor que encamine la cuarta revolución industrial, promueva la innovación, prevenga, controle y limite los riesgos. En el sector privado, conscientes del riesgo de que la IA se descontrole, desde el 22 de marzo, numerosas personas de todo el mundo se han unido a una carta abierta solicitando una moratoria de seis meses para el desarrollo de este modelo de cualquier sistema más sólido que el GPT-4.
Uno de los objetivos de esta moratoria es permitir que los desarrolladores de IA y los legisladores establezcan rápidamente sistemas de gobernanza eficaces. «Hasta anoche, había 27.500 firmantes, entre ellos muchas personas con amplios conocimientos e influencia global en el sector tecnológico», declaró Nghia.
El delegado Pham Trong Nghia habla en el parlamento la mañana del 23 de mayo. Vídeo: Televisión de la Asamblea Nacional
La delegada Nguyen Thi Kim Anh (miembro permanente del Comité de Ciencia, Tecnología y Medio Ambiente) afirmó que se espera que la Ley de Ciencia y Tecnología se incluya en la agenda gubernamental para el período 2022-2025. Sin embargo, muchas disposiciones de la ley de 2028 presentan deficiencias, como la aplicación, los mecanismos de incentivos para promover el desarrollo y los fondos para el desarrollo científico y tecnológico de las empresas. Por lo tanto, sugirió que los organismos consideren con prontitud la modificación de la Ley de Ciencia y Tecnología.
La IA es el "pensamiento" de las máquinas, donde los dispositivos imitarán el pensamiento natural de los humanos para resolver problemas. En la revolución industrial 4.0, la IA es uno de los factores clave.
El año pasado, OpenAI y muchas otras empresas comenzaron a implementar herramientas que aprovechan el siguiente paso en el aprendizaje automático: la IA generativa. Estas herramientas se entrenan con billones de imágenes y texto de internet, lo que les permite generar contenido a partir de solicitudes sencillas de los usuarios, escribir código y hablar como personas reales.
Desde entonces, han surgido acalorados debates en el mundo tecnológico sobre la posibilidad de que la IA supere a los humanos y destruya a la humanidad. «La IA podría causar un daño significativo al mundo», declaró Sam Altman, director ejecutivo de OpenAI, durante una audiencia en el Congreso de Estados Unidos a mediados de mayo.
“Las grandes empresas tecnológicas están compitiendo para desarrollar máquinas cada vez más inteligentes sin ninguna supervisión”, dijo Anthony Aguirre, director del Future of Life Institute (FLI), una organización fundada en 2014 para estudiar las amenazas existenciales a la sociedad.
Viet Tuan - Son Ha
[anuncio_2]
Enlace de origen
Kommentar (0)