Elon Musk estime qu'il n'y a que 20 % de chances que l'IA mène à la destruction de l'humanité. Il a déclaré : « La probabilité d'obtenir un bon résultat est d'environ 80 %. » Ce n'est pas la première fois qu'il évoque cette possibilité ; il avait précédemment avancé un taux de 10 à 20 %.
Musk a prédit que l'IA surpasserait l'intelligence humaine d'ici un an ou deux, et espérait que d'ici 2029 ou 2030, l'IA serait « plus intelligente que tous les humains réunis ». Bien que cet échéancier ait été révisé par rapport aux prédictions précédentes, sa foi dans le développement de l'IA reste inchangée. « J'ai toujours pensé que l'IA serait bien plus intelligente que les humains et que c'était un risque existentiel », a-t-il souligné. « Et c'est en train de se réaliser. »
Elon Musk n'est pas le seul à s'inquiéter de l'IA
Geoffrey Hinton, considéré comme le père de l'IA, estime qu'il y a 10 % de risque que l'IA entraîne l'extinction de l'humanité dans les 30 prochaines années. Roman Yampolskiy, chercheur en sécurité de l'IA, avance un chiffre plus inquiétant : la probabilité d'extinction atteint 99,999999 %.
Malgré ses inquiétudes quant à la destruction de l'humanité par l'IA, Musk a déclaré avoir rejoint le projet d'IA initialement dans le but de créer une « IA open source à but non lucratif » pour contrer Google. Musk était l'un des 11 cofondateurs d'OpenAI, mais a depuis quitté l'organisation. L'année dernière, Musk a intenté deux poursuites contre OpenAI, affirmant que l'organisation avait « trahi » sa mission en adoptant un modèle à but lucratif et en s'associant à Microsoft.
Dans l'interview, Elon Musk a également exprimé son mécontentement face aux résultats d'OpenAI, ce qui l'a incité à développer Grok, une « IA qui recherche le maximum de vérité, même si cette vérité est politiquement incorrecte ». Il a déclaré que le résultat le plus probable des avancées de l'IA pourrait être « incroyable », mais aussi « extrêmement mauvais ».
Comment (0)