Après que Deloitte a dû rééditer un rapport de 440 000 dollars au gouvernement australien en raison d'une grave erreur d'intelligence artificielle (IA), les concurrents du groupe « Big 4 » dont EY, KPMG, PwC et Boston Consulting Group (BCG) ont rapidement pris la parole pour affirmer disposer de processus de contrôle stricts pour éviter des erreurs similaires.
Deloitte subit désormais une pression intense après que le rapport initial contenait trois références fictives et une citation fabriquée d'une décision de la Cour fédérale. La version révisée supprime plus d'une douzaine de citations erronées et corrige la bibliographie, bien que les recommandations demeurent inchangées.
Cette affaire a suscité un intérêt international, devenant un exemple typique d'« hallucination » : l'IA « fabrique » des informations comme si elles étaient réelles. L'opinion publique et les experts exigent du gouvernement du Premier ministre Anthony Albanese qu'il oblige les consultants à divulguer lorsqu'ils utilisent l'IA dans le cadre de contrats publics.
Les Big 4 s'efforcent de prouver qu'ils « utilisent l'IA de manière responsable »
EY insiste sur le fait que tous les résultats générés par l'IA doivent être examinés en profondeur par les employés avant toute utilisation. KPMG affirme disposer d'un « cadre de confiance en matière d'IA » et d'un « registre public de l'IA » des outils utilisés dans ses services, y compris avec ses clients gouvernementaux.
BCG a souligné que tous les produits de conseil sont soumis à un « contrôle rigoureux de la direction », tandis que PwC a souligné qu'il adhérait au principe des « humains dans la boucle » : les humains sont toujours responsables en dernier ressort des produits impliquant l'IA.
Deloitte et McKinsey, deux cabinets qui vantent souvent leurs capacités en matière d'IA, ont refusé de commenter. Deloitte a accepté de rembourser une partie des coûts au ministère australien de l'Emploi et des Relations industrielles.

Lors d'une audition au Sénat, Gordon de Brouwer, directeur de la fonction publique australienne, a souligné : « L'IA n'est pas responsable de votre travail. Vous en êtes responsable. »
La sénatrice écologiste Barbara Pocock a appelé le gouvernement à obliger les prestataires à divulguer publiquement leur utilisation de l'IA et à vérifier tout contenu généré par celle-ci. « Il ne s'agit pas simplement d'une négligence artificielle, mais d'une négligence délibérée… Le travail de Deloitte n'est pas à la hauteur d'un examen universitaire de première année… Si les prestataires engagés pour des travaux gouvernementaux continuent d'externaliser leurs activités d'IA, des contrôles doivent être mis en place. Ce n'est pas trop demander », a-t-elle déclaré.
Mme Pocock a présenté un projet de loi visant à interdire aux entrepreneurs reconnus coupables d'un comportement contraire à l'éthique de participer aux contrats gouvernementaux pendant cinq ans et a demandé des remboursements complets de la part de Deloitte.
L'IA soutient les humains, et non les remplace
Les petits cabinets de conseil n'ont pas tardé à rassurer leurs clients. David Gumley, PDG d'ADAPTOVATE, a déclaré qu'ils utilisaient l'IA pour améliorer leur efficacité, mais qu'elle ne remplacerait jamais l'expertise humaine.
Une autre consultante, Lisa Carlin, qui dirige le cabinet unipersonnel The Turbochargers, a déclaré que les cabinets de conseil doivent avoir une politique publique sur l'utilisation de l'IA, expliquant comment la technologie est appliquée dans leur travail, mais sans nécessairement divulguer les détails de la technologie utilisée.
« L'IA fait désormais partie intégrante des outils métier standards, comme Excel, mais l'entreprise conserve l'entière responsabilité de la gestion des risques », a déclaré Carlin. « La transparence doit être présente au niveau des politiques, et non dans chaque rapport, car ce dont les clients ont besoin, c'est d'avoir l'assurance que l'entreprise dispose de contrôles rigoureux, et non d'un avertissement à chaque page. »
Carlin conseille les entreprises clientes sur la stratégie et la mise en œuvre de l’IA, et elle souligne que chaque détail d’un rapport, quelle que soit la manière dont il a été créé, doit être soigneusement examiné avant d’être envoyé à un client.
« Les entreprises doivent disposer de leurs propres processus d'assurance qualité pour l'IA et d'une évaluation claire des risques », a-t-elle ajouté. « Il n'y a aucune excuse pour une IA générée. Les consultants doivent être responsables de leur travail, tout comme ils le seraient pour un stagiaire. »
(Selon l'AFR)
Source : https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
Comment (0)