Au cours de l’année écoulée, nous avons beaucoup entendu parler de la menace que représente l’IA pour détruire l’humanité. Des parrains de l’IA aux PDG de haut niveau, il semble y avoir un flux constant d’avertissements selon lesquels l’IA sera notre ennemi plutôt que notre ami.
Les leaders de l’industrie et les poids lourds de l’IA affirment que la croissance rapide de la technologie pourrait avoir des conséquences catastrophiques pour le monde . Mais selon de nombreux pionniers de l’IA, ce scénario vise à détourner l’attention des problèmes d’IA plus urgents qui doivent être résolus aujourd’hui.
Il n’y a que 5 % de chances que l’IA fasse disparaître l’humanité. (Photo : Keymatrixsolutions)
Alors que de nombreux chercheurs en IA reconnaissent le potentiel de menaces existentielles liées à l'IA, d'autres ne pensent pas que des résultats aussi dramatiques soient probables, comme le suggère une vaste enquête récente auprès des chercheurs en IA.
Dans la nouvelle enquête, 2 778 chercheurs en IA participants ont été interrogés sur les conséquences sociétales du développement de l'IA, ainsi que sur les échéanciers possibles pour l'avenir de la technologie. Les résultats ont montré que près de 58 % des personnes interrogées ont déclaré qu’elles considéraient que la menace d’extinction humaine ou d’autres conséquences extrêmement néfastes provoquées par la technologie de l’IA était d’environ 5 %.
L’étude a également révélé que l’IA a 50 % de chances de surpasser les humains dans toutes les tâches d’ici 2047, tandis que l’IA a 50 % de chances d’automatiser toutes les tâches humaines d’ici 2116. Les travaux ont été publiés par des chercheurs et des universitaires d’universités du monde entier, notamment d’Oxford et de Bonn en Allemagne.
Certains experts en IA, dont le cofondateur de Google Brain, Andrew Ng, et le « parrain » de l’industrie de l’IA, Yann LeCun, ont rejeté certains des scénarios apocalyptiques les plus répandus liés à l’IA. LeCun a même accusé des leaders technologiques comme Sam Altman d’avoir des arrière-pensées pour attiser les craintes concernant l’IA.
Yann LeCun, parrain de l'IA et scientifique en chef de l'IA chez Meta, a accusé certains des fondateurs les plus éminents du domaine de l'IA de « semer la peur » et de « faire pression sur les grandes entreprises » délibérément pour servir leurs propres intérêts. Selon lui, une grande partie de la rhétorique apocalyptique vise à maintenir le contrôle de l’IA entre les mains de quelques-uns.
Andrew Ng, professeur à l’Université de Stanford et cofondateur de Google Brain, partage un point de vue similaire. Certaines entreprises exploitent les craintes autour de l’IA pour affirmer leur propre domination du marché, a-t-il déclaré à l’Australian Financial Review.
HUYNH DUNG (Source : Businessinsider/Newscientist)
Source
Comment (0)