Au cours de l'année écoulée, on a beaucoup entendu parler du potentiel destructeur de l'IA pour l'humanité. Des parrains de l'IA aux PDG les plus influents, les avertissements se multiplient : l'IA sera notre ennemie, et non notre amie.
Les leaders de l'industrie et les grands noms de l'IA affirment que le développement rapide de cette technologie pourrait avoir des conséquences catastrophiques pour le monde . Mais selon de nombreux pionniers de l'IA, ce scénario vise à détourner l'attention des problèmes plus urgents qu'il convient de résoudre dès aujourd'hui.
Il n'y a que 5 % de chances que l'IA provoque l'extinction de l'humanité. (Photo : Keymatrixsolutions)
Si de nombreux chercheurs en IA reconnaissent le potentiel de menaces existentielles liées à l'IA, d'autres estiment que de tels résultats dramatiques sont peu probables, comme le suggère une nouvelle enquête de grande envergure menée auprès de chercheurs en IA.
Dans le cadre d'une nouvelle enquête, 2 778 chercheurs en intelligence artificielle ont été interrogés sur les conséquences sociétales du développement de l'IA, ainsi que sur les perspectives d'avenir de cette technologie. Les résultats ont montré que près de 58 % des personnes interrogées estiment à environ 5 % la menace d'extinction de l'humanité ou d'autres conséquences extrêmement néfastes liées à l'IA.
L'étude a également révélé que l'IA a 50 % de chances de surpasser les humains dans toutes les tâches d'ici 2047, tandis qu'elle a 50 % de chances d'automatiser toutes les tâches humaines d'ici 2116. Ces travaux ont été publiés par des chercheurs et des universitaires du monde entier, notamment d'Oxford et de Bonn en Allemagne.
Certains experts en IA, dont Andrew Ng, cofondateur de Google Brain, et Yann LeCun, figure emblématique du secteur, ont écarté certains scénarios apocalyptiques concernant l'IA. LeCun a même accusé des dirigeants du secteur technologique, comme Sam Altman, d'alimenter les craintes liées à l'IA par intérêt personnel.
Yann LeCun, parrain de l'IA et directeur scientifique de Meta, a accusé certains des fondateurs les plus influents du domaine de « semer la peur » et de « faire du lobbying pour le compte des entreprises » afin de servir leurs propres intérêts. Selon lui, une grande partie de ce discours apocalyptique vise à maintenir le contrôle de l'IA entre les mains d'une poignée d'individus.
Andrew Ng, professeur à l'université de Stanford et cofondateur de Google Brain, partage cet avis. Il a déclaré à l'Australian Financial Review que certaines entreprises exploitent la peur suscitée par l'IA pour asseoir leur domination sur le marché.
HUYNH DUNG (Source : Businessinsider/Newscientist)
Source










Comment (0)