Le Département de l'efficacité gouvernementale (DOGE) d'Elon Musk utiliserait l'IA pour guider les décisions de réduction des coûts. Cette tactique soulève des inquiétudes en matière de sécurité, de biais et d’erreurs.
Elon Musk a déclaré que son objectif était de réduire rapidement le déficit budgétaire américain d'au moins 1 000 milliards de dollars.
Des rapports de presse citant des sources anonymes suggèrent que le ministère DOGE utilise l'IA pour accélérer les décisions de réduction des coûts.
David Evan Harris, un expert en IA qui travaillait auparavant pour la division IA responsable de Meta, qualifie cela de « terrible idée ».
Les experts affirment que cette approche reflète l’état d’esprit « couper d’abord, réparer plus tard » adopté par Musk sur Twitter il y a deux ans, ce qui a entraîné des milliers de pertes d’emplois, des problèmes techniques, des poursuites judiciaires et des controverses qui ont érodé le réseau social.
Cependant, les conséquences du démantèlement des agences, des systèmes et des services gouvernementaux seraient bien plus graves que celles d’une entreprise technologique.
Utiliser l'IA pour guider les décisions de réduction des coûts
Selon le Washington Post, début février, les membres du DOGE ont introduit des données sensibles du ministère de l'Éducation dans un logiciel d'IA pour analyser les programmes et les dépenses du ministère.
Wired a rapporté que les employés du DOGE ont développé un chatbot IA pour la General Services Administration (GSA) appelé GSAi, qui aide à analyser de grands volumes de données sur les contrats et les achats.
Un autre rapport de NBC News indique que DOGE envisage d'utiliser l'IA pour analyser les commentaires sur les emplois des employés fédéraux afin de déterminer quels postes ne sont plus nécessaires.
En février, Wired a rapporté que DOGE avait modifié le logiciel AutoRIF du ministère de la Défense pour classer automatiquement le personnel à des fins de tir.
La semaine dernière, 21 employés de l’Agence des services numériques des États-Unis (USDS) ont démissionné en signe de protestation. Ils ont accusé le personnel du DOGE d'avoir mal géré des données sensibles et d'avoir perturbé des systèmes critiques.
Cependant, la porte-parole de la Maison Blanche, Karoline Leavitt, a affirmé que quiconque pense que les manifestations, les poursuites judiciaires ou les actions en justice peuvent arrêter le président Trump « doit avoir été désemparé ces dernières années », selon AP.
Sur X, Musk a également qualifié ces personnes de « conservateurs » qui refusent de retourner au bureau.
Selon Amanda Renteria, PDG de Code for America, une organisation à but non lucratif qui développe des outils numériques et renforce les capacités techniques des gouvernements, une partie du problème est que la création d'outils d'IA efficaces nécessite une compréhension approfondie des données utilisées pour la formation, ce que l'équipe DOGE ne possède pas.
Les résultats produits par les outils d’IA peuvent être inutiles, ou la technologie manque d’informations et de contexte pour prendre la bonne décision. Il peut s’agir d’un problème d’« hallucination ».
Selon de nombreuses agences de presse, le personnel de DOGE est un groupe de jeunes hommes d'une vingtaine d'années, venant d'autres sociétés de Musk.
Préoccupations concernant l'utilisation de l'IA par DOGE
Les experts craignent que l’IA puisse reproduire les biais qui surviennent souvent chez les humains. Par exemple, certains outils de recrutement basés sur l’IA privilégient les candidats blancs et masculins par rapport aux autres candidats.
Si l’IA est utilisée pour déterminer quels postes ou projets éliminer, cela signifie que certaines personnes ou certains emplois importants seront supprimés simplement en raison de leur apparence ou de ceux qu’ils servent.
Harris a analysé l’exemple de l’utilisation de l’IA pour évaluer les commentaires des employés fédéraux : les employés talentueux dont la langue maternelle n’est pas l’anglais peuvent être jugés par l’IA comme inférieurs aux anglophones.
Bien que ces préoccupations ne soient pas nouvelles, elles peuvent avoir des conséquences plus graves si elles tournent mal au sein du gouvernement. Musk lui-même admet que DOGE peut faire des erreurs et s'est retiré de certains efforts importants comme la prévention d'Ebola.
On ne sait pas si l’IA a été impliquée dans cette prise de décision.
Il est indéniable que l’IA permet d’augmenter l’efficacité du travail, de synthétiser et d’analyser de grandes quantités d’informations. Mais si elle n’est pas utilisée avec précaution, elle pourrait mettre en danger des données gouvernementales sensibles ou des informations personnelles.
Sans protection adéquate et sans restrictions sur les personnes pouvant accéder au système, les données introduites dans un programme d'IA pourraient apparaître de manière inattendue dans les réponses à d'autres demandes et tomber entre les mains de personnes qui ne devraient pas le savoir.
Harris était particulièrement préoccupé par la gestion par DOGE des dossiers du personnel, qu'il a décrits comme étant parmi « les documents les plus sensibles de toute organisation ».
Cependant, la préoccupation la plus pressante, selon les experts, est peut-être le manque de transparence entourant l’utilisation de l’IA par DOGE. Quels outils le ministère utilise-t-il, comment est-il surveillé, y a-t-il des humains qui vérifient et évaluent les résultats… sont des questions encore ouvertes.
Julia Stoyanovich, professeure agrégée d'informatique et directrice du Center for Responsible AI de l'Université de New York, soutient que pour que l'IA soit efficace, les utilisateurs doivent être clairs sur leurs objectifs pour la technologie et tester pleinement si le système d'IA répond à ces besoins.
« Je suis vraiment, vraiment curieuse d'entendre l'équipe DOGE expliquer comment elle mesure les performances et l'exactitude des résultats », a-t-elle partagé.
(Selon CNN)
Source : https://vietnamnet.vn/hiem-hoa-khi-bo-doge-cua-elon-musk-ra-quyet-dinh-dua-tren-ai-2377729.html
Comment (0)