Vietnam.vn - Nền tảng quảng bá Việt Nam

Le secteur de l'audit bouleversé par l'IA

VTV.vn - Le secteur mondial de l'audit vient de subir un choc sans précédent.

Đài truyền hình Việt NamĐài truyền hình Việt Nam05/11/2025

(Ảnh: Linkedln)

(Photo : LinkedIn)

Deloitte, l'un des quatre plus grands cabinets d'audit au monde , est accusé d'avoir utilisé l'intelligence artificielle (IA) pour établir des rapports contenant de fausses informations. Cet incident a non seulement terni la réputation du cabinet, mais a également suscité un débat international sur l'utilisation responsable de l'IA dans un domaine qui repose sur l'honnêteté, l'exactitude et la confiance.

La « chute » du leader

D'après les informations de l'AP (octobre 2025), Deloitte Australie a accepté de rembourser au gouvernement australien une partie du contrat, soit 440 000 AUD (environ 290 000 USD), après avoir constaté que le rapport remis au ministère du Travail et des Relations de travail (DEWR) contenait des références juridiques inexistantes et de faux documents universitaires. Un audit interne mené par Deloitte a confirmé par la suite qu'une partie du contenu avait été générée par l'outil « Azure OpenAI », un modèle d'intelligence artificielle de Microsoft.

L'incident a immédiatement provoqué une réaction en chaîne, incitant experts et organismes de gestion à lancer simultanément un avertissement : la technologie progresse plus vite que le cadre juridique et les capacités de contrôle humain. CFODive a commenté qu'il s'agissait d'un « signal d'alarme pour l'ensemble du secteur de la finance d'entreprise », en raison des risques potentiels liés à la participation de machines à un processus exigeant une précision absolue.

Deloitte est en effet un pionnier de l'application de l'intelligence artificielle au processus d'audit. Le groupe a investi plus d'un milliard de dollars dans sa transformation numérique, s'engageant à exploiter la puissance du big data et du machine learning pour accroître son efficacité et la profondeur de ses analyses. Selon Financial News London, au Royaume-Uni, plus de 75 % des auditeurs de Deloitte ont utilisé un chatbot interne appelé « PairD », soit trois fois plus que l'année précédente.

L'IA aide les auditeurs à traiter d'énormes volumes de données, à extraire des informations de milliers de pages de contrats, à détecter les anomalies et à économiser des centaines d'heures de travail. Cependant, l'incident survenu chez Deloitte Australie illustre le revers de la médaille : lorsque la technologie n'est pas étroitement surveillée, l'IA peut générer des contenus « fictifs », c'est-à-dire des informations qui semblent plausibles mais qui sont en réalité totalement fausses.

Ngành kiểm toán chấn động vì AI - Ảnh 1.

(Photo : Getty Images)

Selon le rapport d'enquête, le rapport de 237 pages de Deloitte citait une décision d'un tribunal fédéral australien qui n'a jamais été rendue publique. Certaines références en annexe étaient également inexistantes. Ce n'est qu'après un examen approfondi et des questions posées par un organisme gouvernemental que Deloitte a admis avoir utilisé des outils d'IA lors de l'élaboration du rapport. Bien que l'entreprise ait affirmé que « l'IA n'avait joué qu'un rôle de soutien », cet incident a considérablement nui à sa réputation et soulevé des interrogations quant à la transparence de ses méthodes de travail.

Il ne s'agit pas ici d'une simple erreur technique, mais d'un problème qui touche aux fondements mêmes de la profession d'auditeur, laquelle repose sur la confiance du public. Lorsqu'un des quatre plus grands cabinets d'audit au monde commet une erreur liée à l'intelligence artificielle, la confiance du public dans l'indépendance et l'éthique de l'ensemble du secteur est ébranlée.

Cet impact est d'autant plus préoccupant que l'IA se généralise dans d'autres cabinets d'audit comme PwC, EY ou KPMG. Selon une enquête du Center for Audit Quality (CAQ), plus d'un tiers des associés de cabinets d'audit internationaux ont déclaré avoir utilisé ou envisager d'utiliser l'IA dans leurs processus d'audit. Par conséquent, le risque d'erreurs système, s'il n'est pas correctement géré, peut se propager à l'échelle mondiale.

L’audit à l’ère de l’intelligence artificielle : opportunités et mises en garde

Suite à ce choc, le secteur de l'audit a été contraint de repenser son approche de l'ère de l'IA, où opportunités et risques s'entremêlent. Après l'incident, Deloitte a rapidement annoncé le « Cadre d'IA de confiance », un ensemble de lignes directrices pour une utilisation responsable de l'IA, articulé autour de cinq principes : équité, transparence, explicabilité, responsabilité et confidentialité. L'entreprise a également étendu sa plateforme d'audit mondiale Omnia en y intégrant les fonctionnalités de « GenAI » pour faciliter l'analyse et le reporting. Deloitte a réaffirmé que tous les résultats générés par l'IA doivent être vérifiés et validés par des experts humains avant leur diffusion.

Cependant, les experts estiment que les efforts de Deloitte, bien que nécessaires, ne constituent qu'une première étape dans un long processus visant à redéfinir les relations entre l'humain et la technologie dans le secteur de l'audit. Les experts du Financial Times mettent en garde contre le fait que de nombreuses entreprises se lancent dans une course à l'IA sans mettre en place de mécanismes clairs de contrôle et d'évaluation d'impact. L'IA permet certes un gain de temps, mais elle brouille simultanément la frontière entre le travail humain et le travail machine, notamment pour les tâches qui requièrent du jugement et un esprit critique professionnel, qualités propres aux auditeurs.

PwC, autre membre du Big Four, a publiquement modifié son programme de formation pour les nouvelles recrues : au lieu de réaliser des audits classiques, elles apprendront à « surveiller l’IA », à analyser les résultats et à évaluer les risques technologiques. Selon Business Insider, le cabinet estime que « l’auditeur de demain ne se contentera plus de lire des chiffres, mais devra aussi comprendre le fonctionnement des machines ».

Ngành kiểm toán chấn động vì AI - Ảnh 2.

(Photo : Rahul)

Parallèlement, les organismes de réglementation et les instances professionnelles envisagent de publier de nouvelles normes pour l’audit par l’IA. L’International Auditing and Assurance Standards Board (IAASB) travaille à l’élaboration de lignes directrices supplémentaires sur l’utilisation des outils d’IA pour la collecte et la communication des preuves. Certains experts ont proposé la création d’une norme d’audit distincte afin de garantir une cohérence internationale.

Ces évolutions montrent que le secteur de l'audit entre dans une période de profonde transformation. La technologie est incontournable, mais son application exige un contrôle rigoureux et attentif. Faute de quoi, le risque de perte de contrôle pourrait entraîner l'effondrement, en quelques clics seulement, de la confiance dans le système financier, confiance qui s'est maintenue pendant des siècles.

Du point de vue des opportunités, l'IA promet des avancées sans précédent : la capacité de traiter des millions de transactions en un temps record, de détecter des fraudes sophistiquées difficiles à déceler pour l'humain et d'inaugurer le concept d'« audit continu » – un suivi des risques en temps réel. Deloitte, PwC, KPMG et EY investissent chaque année des centaines de millions de dollars dans le développement de leurs propres systèmes d'IA.

Cependant, les opportunités ne se transforment en valeur réelle que si elles s'accompagnent de responsabilité. L'exemple de Deloitte Australie montre que la technologie peut certes modifier les méthodes de travail, mais qu'elle ne saurait remplacer l'éthique et la vérification humaine. Dans le domaine de l'audit par IA, la confiance demeure le bien le plus précieux.

De l’affaire Deloitte, les experts ont tiré de nombreux enseignements importants :

- Transparence absolue dans l'utilisation de l'IA : tout contenu créé ou pris en charge par des outils d'IA doit être clairement divulgué aux clients et aux organismes de réglementation.

- Renforcer les compétences en matière de formation et de supervision : les auditeurs doivent comprendre le fonctionnement de l’IA, connaître les limites de cette technologie et être capables d’évaluer la pertinence des résultats.

- Mettre en place un mécanisme d'audit pour l'IA : non seulement les données financières doivent être auditées, mais les processus et les modèles d'IA doivent également faire l'objet d'un « réaudit » afin de garantir l'objectivité et la transparence.

- Maintenir une éthique professionnelle : quels que soient les progrès technologiques, les principes fondamentaux de l'audit restent « l'indépendance, l'honnêteté et l'objectivité ».


Source : https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm


Comment (0)

No data
No data

Même sujet

Même catégorie

L'héroïne du travail Thai Huong a reçu directement la médaille de l'amitié des mains du président russe Vladimir Poutine au Kremlin.
Perdu dans la forêt de mousse féerique en route pour conquérir Phu Sa Phin
Ce matin, la ville balnéaire de Quy Nhon est « onirique » dans la brume.
La beauté captivante de Sa Pa en saison de « chasse aux nuages ​​»

Même auteur

Patrimoine

Chiffre

Entreprise

Hô Chi Minh-Ville attire les investissements d'entreprises à IDE grâce à de nouvelles opportunités

Événements actuels

Système politique

Locale

Produit