Vietnam.vn - Nền tảng quảng bá Việt Nam

China y Occidente identifican "líneas rojas" sobre los riesgos de la IA

Công LuậnCông Luận19/03/2024

[anuncio_1]

Un grupo de destacados expertos internacionales se reunió en Beijing la semana pasada, donde identificaron “líneas rojas” en el desarrollo de IA, incluida la creación de armas biológicas y la realización de ciberataques.

En una declaración días después de la reunión, los académicos advirtieron que se necesita un enfoque común sobre la seguridad de la IA para prevenir “riesgos catastróficos o incluso existenciales para la humanidad en nuestras vidas”.

En el apogeo de la Guerra Fría, la cooperación internacional entre gobiernos y científicos ayudó a prevenir una catástrofe nuclear. La humanidad debe volver a colaborar para prevenir la catástrofe que podría surgir de una tecnología sin precedentes, afirma la declaración.

Científicos chinos y occidentales determinan el límite del riesgo de la IA (imagen 1)

Expertos del Diálogo Internacional sobre Seguridad de la IA en Pekín han identificado "líneas rojas" en el desarrollo de la IA. Foto: FT

Entre los firmantes se incluyen Geoffrey Hinton y Yoshua Bengio, a menudo descritos como los “padres” de la IA; Stuart Russell, profesor de informática en la Universidad de California; y Andrew Yao, uno de los científicos informáticos más destacados de China.

La declaración se produce después del Diálogo Internacional sobre Seguridad de la IA en Beijing la semana pasada, una reunión a la que asistieron funcionarios del gobierno chino para expresar su aprobación del foro y sus resultados.

El presidente estadounidense, Joe Biden, y el presidente chino, Xi Jinping, se reunieron en noviembre del año pasado para tratar la seguridad de la IA y acordaron entablar un diálogo al respecto. Empresas líderes mundiales en IA también se han reunido en privado con expertos chinos en IA en los últimos meses.

En noviembre de 2023, 28 países, incluida China, y empresas líderes en IA acordaron un amplio compromiso para trabajar juntos para abordar los riesgos existenciales derivados de la IA avanzada durante la cumbre de seguridad de IA del Ministro de Hacienda del Reino Unido, Rishi Sunak.

La semana pasada, en Beijing, los expertos discutieron las amenazas asociadas con el desarrollo de la “Inteligencia General Artificial – AGI”, o sistemas de IA que son iguales o superiores a los humanos.

“El enfoque central del debate fueron las líneas rojas que ningún sistema de IA potente debería cruzar y que los gobiernos de todo el mundo deberían imponer en el desarrollo y la implementación de la IA”, dijo Bengio.

Estas líneas rojas garantizarían que “ningún sistema de IA pueda replicarse o mejorarse sin el consentimiento y apoyo humanos explícitos” o “tomar acciones que aumenten indebidamente su poder e influencia”.

Los científicos añadieron que ningún sistema “mejoraría significativamente la capacidad de los actores para diseñar armas de destrucción masiva, violar la convención sobre armas biológicas o químicas” o ser capaz de “realizar automáticamente ataques cibernéticos que resulten en graves pérdidas financieras o daños equivalentes”.

Hoang Hai (según el FT)


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Películas vietnamitas y el camino a los Oscar
Los jóvenes viajan al noroeste para disfrutar de la temporada de arroz más hermosa del año.
En la temporada de 'caza' de carrizo en Binh Lieu
En medio del manglar de Can Gio

Mismo autor

Herencia

Cifra

Negocio

El video de la actuación en traje nacional de Yen Nhi tiene la mayor cantidad de vistas en Miss Grand International

Actualidad

Sistema político

Local

Producto