![]() |
La UNESCO exige normas estrictas para regular el uso de la inteligencia artificial (IA) en el aula. (Foto: Linkedin) |
En su última orientación a los gobiernos , la UNESCO destacó que las autoridades nacionales aún no están preparadas para abordar cuestiones relacionadas con la implementación de programas de IA generativa en las escuelas.
La agencia afirmó que el uso de programas de IA en lugar de docentes podría afectar las emociones de los niños y ponerlos en riesgo de ser manipulados. Las directrices de la UNESCO establecen que las herramientas de IA tienen el potencial de ayudar a los niños como asistentes de investigación, pero solo serán seguras y eficaces si los gobiernos regulan su uso y si docentes, estudiantes e investigadores participan en su diseño.
De hecho, la IA está transformando el mundo y facilitando la vida cotidiana. El trabajo humano en todos los ámbitos se ha reducido significativamente gracias a sus aplicaciones.
Sin embargo, cada vez hay más advertencias sobre los riesgos que plantea la IA. Se dice que esta tecnología está iniciando una nueva, compleja y feroz batalla entre las fuerzas de ciberseguridad y los ciberdelincuentes. Los niños son los beneficiarios de las oportunidades que ofrece la IA, pero también los más vulnerables a los peligros de esta tecnología revolucionaria.
A medida que la IA se vuelve más frecuente a nivel mundial y se prevé que las inversiones aumenten en 2023, los legisladores de todo el mundo han estado considerando urgentemente cómo mitigar los riesgos que plantea esta tecnología emergente para la seguridad nacional.
En noviembre, el gobierno del Reino Unido organizará una cumbre mundial sobre seguridad de la IA, centrándose en cómo evitar que la IA se utilice para difundir información errónea, noticias falsas en las elecciones y el uso de esta tecnología en la guerra.
En mayo pasado, los líderes del Grupo de los Siete (G7), principales países industrializados, pidieron estándares globales para desarrollar tecnología de IA de forma segura y confiable.
El rápido desarrollo de la IA ha planteado un problema complejo para las autoridades de muchos países: cómo equilibrar el fomento de la innovación y la creatividad con el control de los riesgos potenciales de esta tecnología. A pesar de los beneficios de los productos de IA, muchas empresas tecnológicas aún advierten sobre el nivel de peligro que conlleva si no se supervisa estrictamente.
El presidente de Microsoft, Brad Smith, declaró recientemente que la IA tiene el potencial de ser una herramienta útil, pero también corre el riesgo de convertirse en un arma contra la humanidad si se escapa del control humano. El Sr. Brad Smith afirmó que es necesario animar a las empresas tecnológicas a actuar correctamente, incluyendo la creación de nuevas regulaciones y políticas para garantizar la seguridad en todas las situaciones.
Sam Altman, director ejecutivo de OpenAI, también advirtió sobre los peligros potenciales de la IA y enfatizó la necesidad de reducirlos. Cuatro importantes empresas tecnológicas, entre ellas Anthropic, Google, Microsoft y OpenAI, han formado un nuevo grupo llamado Frontier Model Forum para desarrollar estándares de seguridad, con objetivos principales como: promover la investigación segura en IA para apoyar el desarrollo y reducir riesgos; ayudar al público a comprender la naturaleza, las capacidades, las limitaciones y los impactos de la tecnología; y colaborar con legisladores y académicos para compartir conocimientos sobre riesgos y seguridad.
El uso de la IA es una tendencia irreversible en el mundo. Desarrollar estrategias de desarrollo que la IA realmente sirva a la vida humana es un paso necesario para preparar a las futuras generaciones para vivir con seguridad gracias a la inteligencia artificial.
Fuente
Kommentar (0)