Dans un document de 20 pages publié le 26 novembre, 18 pays ont convenu que les entreprises de recherche et d'application de l'IA doivent développer et déployer la technologie d'une manière qui empêche les clients et le grand public d'être abusés, selon Reuters.
L’accord n’est pas contraignant et contient principalement des recommandations générales, telles que la surveillance des systèmes d’IA pour détecter et prévenir les abus, la protection des données et le contrôle des fournisseurs de logiciels.
Le développement de l’IA entraîne une course dans le domaine technologique ainsi que de nombreuses préoccupations.
Cependant, Jen Easterly, directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures, a déclaré qu'il était important que de nombreux pays partagent l'avis selon lequel les systèmes d'IA doivent donner la priorité à la sécurité.
« C'est la première fois que nous voyons des pays s'accorder sur le fait que ces capacités ne se limitent pas à l'attrait des fonctionnalités, à la rapidité de leur commercialisation ou à notre compétitivité pour réduire les coûts », a déclaré Easterly à Reuters. Ce responsable a ajouté que ces orientations constituent « un accord sur le fait que la sécurité est le critère le plus important à garantir dès la conception ».
Cet accord est le dernier d’une série d’initiatives prises par les gouvernements du monde entier pour façonner le développement de l’IA, dont l’impact se fait de plus en plus sentir dans les industries et dans la société en général.
Le document aborde les questions relatives à la protection des systèmes d'IA contre les attaques informatiques et inclut des recommandations telles que la publication de nouveaux modèles uniquement après des tests de sécurité approfondis. Ces nouvelles directives n'abordent pas les questions épineuses concernant l'utilisation appropriée de l'IA ni la collecte des données qui alimentent ces modèles.
L’essor de l’IA a suscité de nombreuses inquiétudes, notamment la crainte que l’IA puisse être utilisée pour perturber le processus démocratique, promouvoir la fraude ou conduire à un chômage massif, entre autres préjudices.
L'Europe devance les États-Unis en matière de réglementation de l'IA. La France, l'Allemagne et l'Italie ont également récemment conclu un accord sur la réglementation du secteur, concernant les modèles qui sous-tendent l'IA.
L’administration Biden a fait pression sur les législateurs pour qu’ils réglementent l’IA, mais le Congrès, profondément polarisé, a fait peu de progrès dans l’adoption de réglementations efficaces.
La Maison Blanche a cherché à atténuer les risques liés à l’IA pour les consommateurs, les travailleurs et les minorités, tout en renforçant la sécurité nationale, avec un nouveau décret en octobre.
Lien source
Comment (0)