La declaración, emitida después de la reunión del martes, subrayó la determinación de China de asumir el liderazgo mundial en tecnologías avanzadas y las preocupaciones sobre el potencial daño político y social de esas tecnologías.
Presidente chino, Xi Jinping. Foto: NBC
Anteriormente, científicos y líderes tecnológicos de Estados Unidos, incluidos altos ejecutivos de Microsoft y Google, también habían emitido advertencias sobre los riesgos que la inteligencia artificial representa para la humanidad.
La Agencia de Noticias Xinhua informó que en la reunión en Beijing se discutió la necesidad de “realizar esfuerzos especiales para salvaguardar la seguridad política y mejorar la gestión de la seguridad de los datos de Internet y la inteligencia artificial”.
El presidente Xi Jinping pidió “ser siempre profundamente conscientes de las situaciones complejas y desafiantes que enfrenta la seguridad nacional... China necesita un nuevo modelo de desarrollo con una nueva estructura de seguridad”.
"La última reunión del Partido enfatizó la necesidad de evaluar los riesgos potenciales, implementar medidas preventivas, proteger los intereses de las personas y la seguridad nacional, y garantizar la seguridad, confiabilidad y controlabilidad de la IA", informó el martes el Beijing Youth Daily.
La preocupación de que los sistemas de inteligencia artificial se vuelvan más inteligentes que los humanos y se salgan de control está creciendo, especialmente con modelos de lenguaje a gran escala como ChatGPT.
Sam Altman, director ejecutivo de OpenAI, el creador de ChatGPT, y Geoffrey Hinton, un científico informático considerado el padre de la inteligencia artificial, se encuentran entre los cientos de figuras destacadas que firmaron una declaración el martes publicada en el sitio web del Centro de Seguridad de IA.
"Minimizar el riesgo de extinción debido a la IA debe ser una prioridad global junto con otros riesgos sociales como las pandemias y la guerra nuclear", afirma la declaración.
Más de 1.000 investigadores y científicos, incluido Elon Musk, firmaron una carta a principios de este año pidiendo una pausa de seis meses en el desarrollo de la IA.
La carta afirma que la IA plantea “riesgos profundos para la sociedad y la humanidad” y que algunas partes interesadas han propuesto un tratado emitido por la ONU para regular la tecnología.
Ya en 2018, China advirtió sobre la necesidad de regular la IA, pero aun así financió una expansión a gran escala en ese campo como parte de un esfuerzo pionero global.
Los riesgos de la IA se ven principalmente en su potencial para controlar robots, armas autónomas, instrumentos financieros y computadoras que gestionan redes eléctricas, centros médicos , redes de transporte y otras infraestructuras críticas.
Hoang Ton (según AP)
[anuncio_2]
Fuente






Kommentar (0)