Les travaux pionniers de Hinton sur les réseaux neuronaux ont façonné les systèmes d'intelligence artificielle (IA) de nombreux produits actuels. Il a travaillé à temps partiel chez Google pendant une dizaine d'années, mais il a également développé un certain scepticisme quant à cette technologie et à son rôle dans son développement.
« Je me suis consolé en pensant que si je ne le faisais pas, quelqu’un d’autre le ferait », a-t-il déclaré au New York Times, qui a été le premier à rapporter sa décision de quitter Google.
Dans un tweet publié le 1er mai, il a annoncé avoir quitté Google afin de pouvoir évoquer librement les risques liés à l'IA sans avoir à se soucier de son impact sur l'entreprise. « Google a agi de manière très responsable », a-t-il commenté.
Jeff Dean, directeur scientifique de Google, a félicité Hinton pour « les avancées fondamentales en IA » et a exprimé sa gratitude pour ses dix années de service auprès de Google. Dean a également souligné que Google continuera d'apprendre à appréhender les nouveaux risques tout en innovant avec audace.
La décision de Hinton intervient alors qu'un nombre croissant de législateurs, de groupes de défense et d'initiés du secteur mettent en garde contre les risques d'une nouvelle génération de chatbots IA diffusant de la désinformation et remplaçant les emplois humains.
L'intérêt croissant pour ChatGPT, apparu l'année dernière, a une fois de plus alimenté une course aux armements entre les entreprises technologiques pour développer et déployer des outils d'IA. OpenAI, Microsoft et Google mènent la danse, tandis qu'IBM, Amazon, Baidu et Tencent travaillent également sur des technologies similaires.
En mars, plusieurs personnalités du monde technologique ont signé une lettre ouverte appelant les laboratoires d'IA à suspendre l'entraînement de leurs systèmes les plus puissants pendant au moins six mois, invoquant de « graves risques pour la société et l'humanité ». Cette lettre est arrivée deux semaines seulement après l'annonce par OpenAI de GPT-4, sa version la plus puissante à ce jour, capable de passer des tests standardisés et de créer un site web à partir de croquis.
Dans une interview accordée au New York Times , Hinton a réitéré ses inquiétudes quant au potentiel de l'IA à détruire des emplois et à créer un monde où beaucoup « ne sauront plus ce qui est réel ». Il a également souligné le rythme incroyable du développement de l'IA, qui a largement dépassé ses propres prédictions et celles d'autres. Il pensait autrefois qu'il faudrait 30 à 50 ans pour que l'IA devienne plus intelligente que les humains, mais il ne le pense plus.
Avant de quitter Google, il a également évoqué les dangers de l'IA, outre ses avantages. En 2021, lors de son discours d'ouverture à l'Institut indien de technologie de Bombay, il a déclaré que « les avancées rapides de l'IA transformeront la société d'une manière que nous ne comprenons pas vraiment, et que leurs impacts ne seront pas tous positifs ». Pour lui, la possibilité que l'IA crée des armes tueuses autonomes est bien plus dangereuse et terrifiante que la perspective de voir des robots supplanter les humains.
Hinton n'est pas le premier employé de Google à tirer la sonnette d'alarme concernant l'IA. En juillet 2022, Google a licencié un ingénieur qui affirmait que l'un des systèmes d'IA de l'entreprise était doué de sensibilité. Cependant, de nombreux membres de la communauté de l'IA ont fermement contesté ces affirmations.
(Selon CNN)
Source
Comment (0)