À l'issue d'une audition de trois heures sur l'IA, Elon Musk, patron de plusieurs entreprises technologiques célèbres, a brièvement résumé les risques liés à cette technologie : « Il existe un risque – supérieur à zéro – que l'IA nous tue tous. Je pense que ce risque est faible, mais pas nul. Les conséquences d'une mauvaise utilisation de l'IA sont extrêmement catastrophiques », a-t- il déclaré aux journalistes.
Il a également déclaré que la réunion « restera dans l’histoire pour son importance pour l’avenir de la civilisation ».
La session, animée par le sénateur Chuck Schumer, a réuni des PDG de haut niveau du secteur technologique, des dirigeants de la société civile et plus de 60 sénateurs. La première des neuf sessions vise à développer un consensus alors que le Sénat se prépare à rédiger une loi visant à réglementer l'industrie de l'IA. Les PDG de Meta, Google, OpenAI, Nvidia et IBM y participeront également.
Tous les participants ont levé la main — indiquant « oui » — lorsqu'on leur a demandé si le gouvernement fédéral devrait superviser l'IA, a déclaré Schumer aux journalistes dans l'après-midi du 13 septembre. Mais le consensus sur ce que devrait être ce rôle et les détails de la législation restent insaisissables, selon les participants.
Avantages et risques
Bill Gates a parlé du potentiel de l'IA pour lutter contre la pauvreté, tandis qu'un participant anonyme a appelé à des dizaines de milliards de dollars pour débloquer les avantages de l'IA, selon Schumer.
Le défi pour le Congrès est de promouvoir ces avantages tout en minimisant les risques sociétaux de l’IA, notamment le potentiel de discrimination fondée sur la technologie, les menaces à la sécurité nationale et même, comme le dit Musk, le propriétaire de X, « les risques pour la civilisation ».
Maximiser les bénéfices tout en minimisant les dommages est une tâche difficile, a déclaré M. Schumer.
Les sénateurs ont entendu un large éventail de points de vue, des représentants des syndicats soulevant des questions d’emploi et des leaders des droits civiques soulignant la nécessité d’un processus législatif inclusif qui donne la parole aux moins puissants de la société.
La plupart des gens s’accordent à dire que l’IA ne peut pas être laissée seule, a déclaré la sénatrice démocrate de Washington Maria Cantwell. Satya Nadella, PDG de Microsoft, a déclaré : « En matière d'IA, il ne faut pas penser au pilotage automatique. Il faut un partenaire. »
Après l'événement, Musk a déclaré aux journalistes qu'il pensait qu'il y aurait un jour une agence indépendante pour réguler l'IA.
Rencontre d'esprits brillants
M. Schumer a souligné qu’il s’agissait d’ une « discussion sans précédent au Congrès ».
Cela reflète la prise de conscience croissante parmi les décideurs politiques que l’intelligence artificielle, et en particulier l’IA générative comme ChatGPT, peut perturber les entreprises et la vie quotidienne de diverses manières, allant de l’augmentation de la productivité commerciale à la menace pour l’emploi, la sécurité nationale et la propriété intellectuelle.
Les invités importants sont arrivés juste avant 10 heures du matin, le PDG de Meta, Mark Zuckerberg, s'arrêtant pour discuter avec le PDG de Nvidia, Jensen Huang, à l'extérieur de la salle Kennedy Caucus du bâtiment du Sénat Russell. Le PDG de Google, Sundar Pichai, a été vu blotti avec le sénateur démocrate du Delaware, Chris Coons, tandis que le propriétaire de X, Musk, saluait la foule.
À l'intérieur, Musk était assis au fond de la salle en face de Zuckerberg, probablement la première fois que les deux hommes se retrouvaient dans la même pièce depuis qu'ils avaient commencé à s'entraîner il y a quelques mois.
La session sur Capitol Hill à Washington offre également à l’industrie technologique sa plus importante opportunité à ce jour d’influencer la manière dont les législateurs conçoivent les règles qui pourraient régir l’IA.
Plusieurs entreprises, dont Google, IBM, Microsoft et OpenAI, ont présenté leurs propres propositions détaillées dans des livres blancs et des articles de blog décrivant les niveaux de surveillance, de test et de transparence.
Le PDG d'IBM, Arvind Krishna, a fait valoir lors de la réunion que la politique américaine devrait réglementer l'utilisation risquée de l'IA, plutôt que seulement les algorithmes. « La réglementation doit prendre en compte le contexte dans lequel l’IA est déployée », a-t-il déclaré.
Appel à la direction
Des dirigeants comme le PDG d'OpenAI, Sam Altman, ont déjà surpris certains sénateurs en appelant publiquement à une réglementation précoce de l'IA, ce que certains législateurs considèrent comme un contraste bienvenu avec l'industrie des médias sociaux.
Des groupes de la société civile ont exprimé leurs inquiétudes quant aux dangers potentiels de l’IA, comme le risque que des algorithmes mal formés puissent discriminer involontairement les minorités ou qu’ils puissent copier des œuvres protégées par le droit d’auteur d’écrivains et d’artistes sans autorisation. Certains auteurs ont poursuivi OpenAI, tandis que d’autres ont demandé aux entreprises d’IA de payer dans des lettres ouvertes.
Les éditeurs de nouvelles comme CNN, The New York Times et Disney ont empêché ChatGPT d'utiliser leur contenu.
La présidente de la Fédération américaine des enseignants, Randi Weingarten, a déclaré que les États-Unis ne pouvaient pas se permettre de commettre les mêmes erreurs avec l’IA qu’avec les médias sociaux. « Nous n’avons pas réagi après que les effets néfastes des médias sociaux sur la santé mentale des enfants sont devenus évidents », a-t-elle déclaré dans un communiqué. « L’IA doit compléter, et non remplacer, les éducateurs , et une attention particulière doit être portée pour éviter de nuire aux étudiants. »
Élaboration des politiques
Plus tôt cet été, Schumer a organisé trois séances d’information pour permettre aux sénateurs de se familiariser avec la technologie, notamment une réunion d’information confidentielle avec des responsables de la sécurité nationale américaine.
La réunion du 13 septembre avec les dirigeants du secteur technologique et les organisations à but non lucratif a marqué la prochaine étape de sensibilisation des législateurs sur la question avant qu'ils ne commencent à élaborer des propositions politiques. En juin, le sénateur Schumer a souligné la nécessité d’une approche prudente et délibérée, reconnaissant que « à bien des égards, nous partons de zéro ».
« L’IA ne ressemble à rien de ce que le Congrès a traité auparavant », a-t-il déclaré, soulignant que le sujet est différent du travail, des soins de santé ou de la défense. « Les experts ne savent même pas quelles questions les décideurs politiques devraient poser. »
L'objectif, après avoir tenu davantage de sessions, est de rédiger une législation en « quelques mois, et non en quelques années », a-t-il ajouté.
Une série de projets de loi sur l’IA ont émergé au Capitole, cherchant à contrôler l’industrie de diverses manières, mais la démarche de Schumer représente un effort de plus haut niveau pour coordonner le programme législatif du Congrès sur la question.
La nouvelle loi sur l’IA pourrait également servir de filet de sécurité potentiel pour les engagements volontaires que plusieurs sociétés d’IA ont pris auprès de l’administration Biden plus tôt cette année pour garantir que leurs modèles d’IA subissent des tests avant d’être rendus publics.
Mais même si les législateurs se préparent avec autant de soin, ils ont des mois, voire des années de retard sur l’Union européenne, qui devrait finaliser sa vaste loi sur l’IA d’ici la fin de l’année. Les lois pourraient interdire l’utilisation de l’IA pour la prédiction des politiques et restreindre son utilisation dans d’autres contextes.
(Selon CNN)
Source
Comment (0)