Vietnam.vn - Nền tảng quảng bá Việt Nam

La Chine et l'Occident définissent des « lignes rouges » concernant les risques liés à l'IA

Công LuậnCông Luận19/03/2024


La semaine dernière, un groupe d'experts internationaux de renom s'est réuni à Pékin où ils ont identifié des « lignes rouges » dans le développement de l'IA, notamment la création d'armes biologiques et la conduite de cyberattaques.

Dans une déclaration publiée quelques jours après la réunion, les universitaires ont averti qu'une approche commune de la sécurité de l'IA est nécessaire pour prévenir « des risques catastrophiques, voire existentiels, pour l'humanité de notre vivant ».

« Au plus fort de la guerre froide, la coopération internationale, tant gouvernementale que scientifique, a permis d’éviter une catastrophe nucléaire. L’humanité doit à nouveau œuvrer de concert pour prévenir la catastrophe que pourrait engendrer une technologie sans précédent », indique le communiqué.

Des scientifiques chinois et occidentaux déterminent les limites du risque lié à l'IA (image 1)

Des experts réunis à Pékin pour le Dialogue international sur la sécurité de l'IA ont identifié des « lignes rouges » dans le développement de l'IA. Photo : FT

Parmi les signataires figurent Geoffrey Hinton et Yoshua Bengio, souvent décrits comme les « pères » de l’IA ; Stuart Russell, professeur d’informatique à l’Université de Californie ; et Andrew Yao, l’un des informaticiens les plus éminents de Chine.

Cette déclaration fait suite au Dialogue international sur la sécurité de l'IA qui s'est tenu à Pékin la semaine dernière, une réunion à laquelle ont participé des représentants du gouvernement chinois venus exprimer leur approbation du forum et de ses conclusions.

Le président américain Joe Biden et le président chinois Xi Jinping se sont rencontrés en novembre dernier et ont discuté de la sécurité de l'IA, convenant d'établir un dialogue sur le sujet. Ces derniers mois, des entreprises mondiales de premier plan dans le domaine de l'IA ont également rencontré, à titre privé, des experts chinois en IA.

En novembre 2023, 28 pays, dont la Chine, et des entreprises leaders dans le domaine de l'IA ont convenu d'un large engagement à travailler ensemble pour faire face aux risques existentiels découlant de l'IA avancée lors du sommet sur la sécurité de l'IA organisé par le chancelier britannique Rishi Sunak.

La semaine dernière à Pékin, des experts ont discuté des menaces liées au développement de l’« intelligence artificielle générale – IAG », c’est-à-dire des systèmes d’IA égaux ou supérieurs aux humains.

« L’essentiel de la discussion portait sur les lignes rouges qu’aucun système d’IA puissant ne devrait franchir et que les gouvernements du monde entier devraient imposer en matière de développement et de déploiement de l’IA », a déclaré Bengio.

Ces lignes rouges garantiraient qu’« aucun système d’IA ne puisse se répliquer ou s’améliorer sans le consentement et le soutien explicites de l’humain » ou « entreprendre des actions qui augmentent indûment son pouvoir et son influence ».

Les scientifiques ont ajouté qu’aucun système ne permettrait « d’accroître de manière significative la capacité des acteurs à concevoir des armes de destruction massive, à violer la convention sur les armes biologiques ou chimiques » ou à « mener automatiquement des cyberattaques entraînant des pertes financières importantes ou des dommages équivalents ».

Hoang Hai (selon le FT)



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Magnifique lever de soleil sur les mers du Vietnam
Voyage à « Sapa miniature » : Immergez-vous dans la beauté majestueuse et poétique des montagnes et des forêts de Binh Lieu
Un café d'Hanoï se transforme en décor européen, projette de la neige artificielle et attire les clients.
Le bilan humain « zéro mort » des habitants de la zone inondée de Khanh Hoa, le 5e jour des mesures de prévention des inondations

Même auteur

Patrimoine

Chiffre

Entreprise

Maison sur pilotis thaïlandaise - Là où les racines touchent le ciel

Actualités

Système politique

Locale

Produit