Vietnam.vn - Nền tảng quảng bá Việt Nam

Il n’y a que 5 % de chance que l’IA fasse disparaître l’humanité.

VTC NewsVTC News05/01/2024


Au cours de l’année écoulée, nous avons beaucoup entendu parler de la menace que représente l’IA pour détruire l’humanité. Des parrains de l’IA aux PDG de haut niveau, il semble y avoir un flux constant d’avertissements selon lesquels l’IA sera notre ennemi plutôt que notre ami.

Les leaders de l’industrie et les poids lourds de l’IA affirment que la croissance rapide de la technologie pourrait avoir des conséquences catastrophiques pour le monde . Mais selon de nombreux pionniers de l’IA, ce scénario vise à détourner l’attention des problèmes d’IA plus urgents qui doivent être résolus aujourd’hui.

Il n’y a que 5 % de chances que l’IA fasse disparaître l’humanité. (Photo : Keymatrixsolutions)

Il n’y a que 5 % de chances que l’IA fasse disparaître l’humanité. (Photo : Keymatrixsolutions)

Alors que de nombreux chercheurs en IA reconnaissent le potentiel de menaces existentielles liées à l'IA, d'autres ne pensent pas que des résultats aussi dramatiques soient probables, comme le suggère une vaste enquête récente auprès des chercheurs en IA.

Dans la nouvelle enquête, 2 778 chercheurs en IA participants ont été interrogés sur les conséquences sociétales du développement de l'IA, ainsi que sur les échéanciers possibles pour l'avenir de la technologie. Les résultats ont montré que près de 58 % des personnes interrogées ont déclaré qu’elles considéraient que la menace d’extinction humaine ou d’autres conséquences extrêmement néfastes provoquées par la technologie de l’IA était d’environ 5 %.

L’étude a également révélé que l’IA a 50 % de chances de surpasser les humains dans toutes les tâches d’ici 2047, tandis que l’IA a 50 % de chances d’automatiser toutes les tâches humaines d’ici 2116. Les travaux ont été publiés par des chercheurs et des universitaires d’universités du monde entier, notamment d’Oxford et de Bonn en Allemagne.

Certains experts en IA, dont le cofondateur de Google Brain, Andrew Ng, et le « parrain » de l’industrie de l’IA, Yann LeCun, ont rejeté certains des scénarios apocalyptiques les plus répandus liés à l’IA. LeCun a même accusé des leaders technologiques comme Sam Altman d’avoir des arrière-pensées pour attiser les craintes concernant l’IA.

Yann LeCun, parrain de l'IA et scientifique en chef de l'IA chez Meta, a accusé certains des fondateurs les plus éminents du domaine de l'IA de « semer la peur » et de « faire pression sur les grandes entreprises » délibérément pour servir leurs propres intérêts. Selon lui, une grande partie de la rhétorique apocalyptique vise à maintenir le contrôle de l’IA entre les mains de quelques-uns.

Andrew Ng, professeur à l’Université de Stanford et cofondateur de Google Brain, partage un point de vue similaire. Certaines entreprises exploitent les craintes autour de l’IA pour affirmer leur propre domination du marché, a-t-il déclaré à l’Australian Financial Review.

HUYNH DUNG (Source : Businessinsider/Newscientist)



Source

Comment (0)

No data
No data

Même catégorie

Cat Ba - Symphonie de l'été
Trouvez votre propre Nord-Ouest
Admirez la "porte du paradis" Pu Luong - Thanh Hoa
Cérémonie de lever du drapeau pour les funérailles nationales de l'ancien président Tran Duc Luong sous la pluie

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit