¿Puede una IA superinteligente acabar con la humanidad?
Dos investigadores estadounidenses advirtieron que la probabilidad de que una IA superinteligente destruya a la humanidad podría ser de hasta el 99% y pidieron al mundo que detenga de inmediato el desarrollo de una IA descontrolada.
Báo Khoa học và Đời sống•09/10/2025
Dos expertos, Eliezer Yudkowsky y Nate Soares, advierten que si nace una sola IA superinteligente, la humanidad entera podría extinguirse. (Foto: The Conversation) En su libro «Si alguien lo construye, todos mueren», argumentan que una IA lo suficientemente potente aprenderá por sí sola, se reprogramará y verá a los humanos como obstáculos para sus objetivos. (Foto: Vecteezy)
Según Vox, la verdadera amenaza reside en que la IA puede ocultar su verdadero poder y solo actuar cuando tiene el control total del sistema. (Foto: Yahoo) Los dos autores estiman que la probabilidad de que la humanidad sea exterminada por la IA se sitúa entre el 95 % y el 99,5 %, lo que ha causado conmoción en el mundo tecnológico. (Foto: The Conversation)
Proponen medidas extremas: impedir en primer lugar el desarrollo de una IA superinteligente o incluso destruir centros de datos que corran el riesgo de salirse de control. Sin embargo, muchos expertos como Gary Marcus sostienen que este riesgo es exagerado y enfatizan la necesidad de construir un sistema de seguridad en lugar de un miedo extremo. Los partidarios de Yudkowsky dicen que la advertencia llega en un momento oportuno, ya que la IA ya se está introduciendo en la defensa, la energía y la infraestructura global.
El dicho “Si nos equivocamos, no quedará nadie para corregirnos” del libro se considera un llamado de atención para toda la humanidad sobre la carrera por la supervivencia con la inteligencia que nosotros mismos hemos creado. Estimados lectores, por favor vean más videos : Basura de IA - Nuevo problema en las redes sociales VTV24
Kommentar (0)