La déclaration, publiée à l'issue de la réunion de mardi, a souligné la détermination de la Chine à assumer un rôle de premier plan à l'échelle mondiale dans le domaine des technologies de pointe et ses préoccupations quant aux risques politiques et sociaux potentiels liés à ces technologies.
Le président chinois Xi Jinping. Photo : NBC
Auparavant, des scientifiques et des dirigeants technologiques américains, notamment de hauts responsables de Microsoft et de Google, avaient également mis en garde contre les risques que l'intelligence artificielle fait peser sur l'humanité.
L'agence de presse Xinhua a rapporté que la réunion à Pékin a porté sur la nécessité de déployer des « efforts particuliers pour préserver la sécurité politique et améliorer la gestion de la sécurité des données sur Internet et de l'intelligence artificielle ».
Le président Xi Jinping a appelé à « toujours être profondément conscient des situations complexes et difficiles auxquelles est confrontée la sécurité nationale… La Chine a besoin d’un nouveau modèle de développement avec une nouvelle structure de sécurité. »
« La dernière réunion du Parti a souligné la nécessité d'évaluer les risques potentiels, de mettre en œuvre des mesures préventives, de protéger les intérêts du peuple et la sécurité nationale, et de garantir la sûreté, la fiabilité et la contrôlabilité de l'IA », a rapporté mardi le Beijing Youth Daily.
Les inquiétudes concernant le risque que les systèmes d'intelligence artificielle deviennent plus intelligents que les humains et échappent à tout contrôle s'accroissent, notamment avec les modèles de langage à grande échelle comme ChatGPT.
Sam Altman, PDG d'OpenAI, créateur de ChatGPT, et Geoffrey Hinton, informaticien surnommé le père de l'intelligence artificielle, figurent parmi les centaines de personnalités qui ont signé une déclaration publiée mardi sur le site web du Centre de sécurité de l'IA.
« Minimiser le risque d’extinction dû à l’IA doit être une priorité mondiale au même titre que d’autres risques sociétaux tels que les pandémies et la guerre nucléaire », indique le communiqué.
Plus de 1 000 chercheurs et scientifiques, dont Elon Musk, ont signé une lettre en début d'année demandant une pause de six mois dans le développement de l'IA.
La lettre indiquait que l'IA représente « un risque majeur pour la société et l'humanité » et que certains acteurs ont proposé un traité de l'ONU pour réglementer cette technologie.
Dès 2018, la Chine mettait en garde contre la nécessité de réglementer l'IA, mais a néanmoins financé un développement à grande échelle dans ce domaine dans le cadre de ses efforts pionniers à l'échelle mondiale.
Les risques liés à l'IA résident principalement dans son potentiel à contrôler les robots, les armes autonomes, les instruments financiers et les ordinateurs gérant les réseaux électriques, les centres médicaux , les réseaux de transport et autres infrastructures critiques.
Hoang Ton (selon AP)
Source






Comment (0)