Elon Musk cree que solo hay un 20 % de probabilidades de que la IA conduzca a la destrucción de la humanidad. Musk afirmó: «La probabilidad de lograr un buen resultado es de alrededor del 80 %». No es la primera vez que menciona esta posibilidad; anteriormente, la había estimado entre el 10 % y el 20 %.
Musk predijo que la IA superaría la inteligencia humana en uno o dos años, y esperaba que para 2029 o 2030, la IA fuera "más inteligente que todos los humanos juntos". Si bien este cronograma se ha revisado con respecto a predicciones anteriores, su creencia en el desarrollo de la IA se mantiene inalterada. "Siempre pensé que la IA sería mucho más inteligente que los humanos y que era un riesgo existencial", enfatizó. "Y eso se está haciendo realidad".
Elon Musk no es el único preocupado por la IA
Geoffrey Hinton, considerado el padre de la IA, cree que existe un 10 % de probabilidad de que la IA provoque la extinción de la humanidad en los próximos 30 años. Por su parte, el investigador en seguridad de la IA, Roman Yampolskiy, ofrece una cifra más preocupante: la probabilidad de extinción alcanza el 99,999999 %.
A pesar de su preocupación por la destrucción de la humanidad causada por la IA, Musk afirmó que se unió al proyecto de IA inicialmente con el objetivo de crear una "IA de código abierto sin fines de lucro" para contrarrestar a Google. Musk fue uno de los 11 cofundadores de OpenAI, pero posteriormente abandonó la organización. El año pasado, Musk presentó dos demandas contra OpenAI, alegando que la organización había "traicionado" su misión al adoptar un modelo con fines de lucro y asociarse con Microsoft.
En la entrevista, Elon Musk también expresó su insatisfacción con los resultados de OpenAI, lo que lo impulsó a desarrollar Grok, una IA que busca la máxima verdad, incluso si esa verdad es políticamente incorrecta . Aseguró que el resultado más probable de los avances en IA podría ser asombroso, pero también extremadamente malo.
Kommentar (0)