Dans un document de 20 pages publié le 26 novembre, 18 pays ont convenu que les entreprises de recherche et d'application en IA doivent développer et déployer la technologie de manière à empêcher les clients et le grand public d'en être victimes d'abus, selon Reuters.
Cet accord n'est pas contraignant et se limite principalement à des recommandations générales, telles que la surveillance des systèmes d'IA pour détecter et prévenir les abus, la protection des données et la vérification des fournisseurs de logiciels.
Le développement de l'IA engendre une course dans le domaine technologique ainsi que de nombreuses inquiétudes.
Cependant, Jen Easterly, directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures, a déclaré qu'il était important que tant de pays partagent l'avis selon lequel les systèmes d'IA devaient donner la priorité à la sécurité.
« C’est la première fois que des pays s’accordent à dire que ces capacités ne se résument pas à l’attrait des fonctionnalités, à la rapidité de leur commercialisation ou à la compétitivité des coûts », a déclaré Easterly à Reuters. Le responsable a ajouté que ces directives témoignent d’un « consensus sur le fait que la sécurité est primordiale dès la conception ».
Cet accord est le dernier d'une série d'initiatives prises par des gouvernements du monde entier pour orienter le développement de l'IA, dont l'impact se fait de plus en plus sentir dans tous les secteurs d'activité et dans la société en général.
Ce document aborde les questions de protection des systèmes d'IA contre les attaques de pirates informatiques et formule des recommandations, comme celle de ne diffuser de nouveaux modèles qu'après des tests de sécurité approfondis. Il ne traite cependant pas des questions complexes relatives à l'utilisation appropriée de l'IA ni à la collecte des données qui alimentent ces modèles.
L'essor de l'IA a suscité de nombreuses inquiétudes, notamment la crainte qu'elle puisse être utilisée pour perturber le processus démocratique, promouvoir la fraude ou entraîner un chômage massif, entre autres méfaits.
L'Europe devance les États-Unis en matière de réglementation de l'IA. La France, l'Allemagne et l'Italie sont également parvenues récemment à un accord sur la manière de réglementer ce domaine, notamment en ce qui concerne les modèles qui sous-tendent l'IA.
L'administration Biden a fait pression sur les législateurs concernant la réglementation de l'IA, mais le Congrès, profondément polarisé, a fait peu de progrès dans l'adoption de réglementations efficaces.
La Maison Blanche a cherché à atténuer les risques liés à l'IA pour les consommateurs, les travailleurs et les minorités, tout en renforçant la sécurité nationale, par le biais d'un nouveau décret présidentiel en octobre.
Lien source










Comment (0)