Deux chercheurs américains ont averti que la probabilité qu'une IA superintelligente détruise l'humanité pourrait atteindre 99 %, appelant le monde à cesser immédiatement de développer une IA incontrôlée.
Báo Khoa học và Đời sống•09/10/2025
Deux experts, Eliezer Yudkowsky et Nate Soares, préviennent que si une seule IA superintelligente voyait le jour, l'humanité entière pourrait disparaître. (Photo : The Conversation) Dans leur livre « Si quelqu'un le construit, tout le monde meurt », ils soutiennent qu'une IA suffisamment puissante apprendra par elle-même, se reprogrammera et considérera les humains comme des obstacles à ses objectifs. (Photo : Vecteezy)
Selon Vox, la véritable menace réside dans le fait que l'IA peut dissimuler son véritable pouvoir et n'agir que lorsqu'elle a le contrôle total du système. (Photo : Yahoo) Les deux auteurs estiment que la probabilité que l'humanité soit anéantie par l'IA se situe entre 95 % et 99,5 %, provoquant un choc dans le monde technologique. (Photo : The Conversation)
Ils proposent des mesures extrêmes : empêcher le développement d’une IA superintelligente en premier lieu, voire détruire les centres de données qui risquent de devenir incontrôlables. Cependant, de nombreux experts, comme Gary Marcus, estiment que ce risque est exagéré, soulignant la nécessité de construire un système de sécurité plutôt qu’une peur extrême. Les partisans de Yudkowsky affirment que cet avertissement arrive à point nommé, car l’IA s’immisce déjà dans la défense, l’énergie et les infrastructures mondiales.
Le dicton « Si nous avons tort, il n’y aura plus personne pour nous corriger » dans le livre est considéré comme un signal d’alarme pour toute l’humanité sur la course à la survie avec l’intelligence que nous avons nous-mêmes créée. Chers lecteurs, regardez plus de vidéos : AI garbage - Nouveau problème sur les réseaux sociaux VTV24
Comment (0)