A IA superinteligente pode acabar com a humanidade?
Dois pesquisadores americanos alertaram que a probabilidade de uma IA superinteligente destruir a humanidade pode ser de até 99%, pedindo ao mundo que pare imediatamente de desenvolver IA descontrolada.
Báo Khoa học và Đời sống•09/10/2025
Dois especialistas, Eliezer Yudkowsky e Nate Soares, alertam que, se apenas uma IA superinteligente nascer, toda a raça humana poderá ser extinta. (Foto: The Conversation) Em seu livro If Anyone Builds It, Everyone Dies, eles argumentam que uma IA poderosa o suficiente aprenderá por si mesma, se reprogramará e verá os humanos como obstáculos para seus objetivos. (Foto: Vecteezy)
Segundo a Vox, a verdadeira ameaça reside no fato de que a IA pode esconder seu verdadeiro poder e só agir quando tiver controle total do sistema. (Foto: Yahoo) Os dois autores estimam que a probabilidade de a humanidade ser exterminada pela IA esteja entre 95% e 99,5%, causando choque no mundo da tecnologia. (Foto: The Conversation)
Eles propõem medidas extremas: impedir o desenvolvimento de IA superinteligente em primeiro lugar, até mesmo destruir data centers que correm o risco de ficar fora de controle. No entanto, muitos especialistas, como Gary Marcus, argumentam que esse risco é exagerado, enfatizando a necessidade de construir um sistema de segurança em vez de medo extremo. Os apoiadores de Yudkowsky dizem que o alerta chega em um momento oportuno, já que a IA já está se infiltrando na defesa, energia e infraestrutura global.
O ditado “Se estivermos errados, não sobrará ninguém para nos corrigir” no livro é considerado um alerta para toda a humanidade sobre a corrida pela sobrevivência com a inteligência que nós mesmos criamos. Caros leitores, assistam a mais vídeos : Lixo de IA - Novo problema nas redes sociais VTV24
Comentário (0)