La semaine dernière, un groupe d'experts internationaux de renom s'est réuni à Pékin où ils ont identifié des « lignes rouges » dans le développement de l'IA, notamment la création d'armes biologiques et la conduite de cyberattaques.
Dans une déclaration publiée quelques jours après la réunion, les universitaires ont averti qu'une approche commune de la sécurité de l'IA est nécessaire pour prévenir « des risques catastrophiques, voire existentiels, pour l'humanité de notre vivant ».
« Au plus fort de la guerre froide, la coopération internationale, tant gouvernementale que scientifique, a permis d’éviter une catastrophe nucléaire. L’humanité doit à nouveau œuvrer de concert pour prévenir la catastrophe que pourrait engendrer une technologie sans précédent », indique le communiqué.
Des experts réunis à Pékin pour le Dialogue international sur la sécurité de l'IA ont identifié des « lignes rouges » dans le développement de l'IA. Photo : FT
Parmi les signataires figurent Geoffrey Hinton et Yoshua Bengio, souvent décrits comme les « pères » de l’IA ; Stuart Russell, professeur d’informatique à l’Université de Californie ; et Andrew Yao, l’un des informaticiens les plus éminents de Chine.
Cette déclaration fait suite au Dialogue international sur la sécurité de l'IA qui s'est tenu à Pékin la semaine dernière, une réunion à laquelle ont participé des représentants du gouvernement chinois venus exprimer leur approbation du forum et de ses conclusions.
Le président américain Joe Biden et le président chinois Xi Jinping se sont rencontrés en novembre dernier et ont discuté de la sécurité de l'IA, convenant d'établir un dialogue sur le sujet. Ces derniers mois, des entreprises mondiales de premier plan dans le domaine de l'IA ont également rencontré, à titre privé, des experts chinois en IA.
En novembre 2023, 28 pays, dont la Chine, et des entreprises leaders dans le domaine de l'IA ont convenu d'un large engagement à travailler ensemble pour faire face aux risques existentiels découlant de l'IA avancée lors du sommet sur la sécurité de l'IA organisé par le chancelier britannique Rishi Sunak.
La semaine dernière à Pékin, des experts ont discuté des menaces liées au développement de l’« intelligence artificielle générale – IAG », c’est-à-dire des systèmes d’IA égaux ou supérieurs aux humains.
« L’essentiel de la discussion portait sur les lignes rouges qu’aucun système d’IA puissant ne devrait franchir et que les gouvernements du monde entier devraient imposer en matière de développement et de déploiement de l’IA », a déclaré Bengio.
Ces lignes rouges garantiraient qu’« aucun système d’IA ne puisse se répliquer ou s’améliorer sans le consentement et le soutien explicites de l’humain » ou « entreprendre des actions qui augmentent indûment son pouvoir et son influence ».
Les scientifiques ont ajouté qu’aucun système ne permettrait « d’accroître de manière significative la capacité des acteurs à concevoir des armes de destruction massive, à violer la convention sur les armes biologiques ou chimiques » ou à « mener automatiquement des cyberattaques entraînant des pertes financières importantes ou des dommages équivalents ».
Hoang Hai (selon le FT)
Source






Comment (0)