
(Foto: LinkedIn)
Deloitte, en av verdens «fire store» revisorer, har blitt anklaget for å bruke kunstig intelligens (KI) til å sette sammen rapporter som inneholder falsk informasjon. Hendelsen har ikke bare rystet firmaets omdømme, men også utløst en global debatt om ansvarlig bruk av KI i et felt som er basert på ærlighet, nøyaktighet og tillit.
Lederens "fall"
Ifølge informasjon fra AP News (oktober 2025) har Deloitte Australia gått med på å refundere den australske regjeringen en del av kontraktsverdien på 440 000 AUD (tilsvarende omtrent 290 000 USD) etter å ha oppdaget at rapporten som ble sendt til Department of Labor and Employment Relations (DEWR) inneholdt ikke-eksisterende juridiske sitater og falske akademiske artikler. En intern gjennomgang av Deloitte bekreftet senere at deler av innholdet ble generert av verktøyet «Azure OpenAI» – Microsofts AI-modell.
Hendelsen utløste umiddelbart en kjedereaksjon, som fikk eksperter og forvaltningsorganer til å advare samtidig: teknologien utvikler seg raskere enn det juridiske rammeverket og menneskelige tilsynsmuligheter. CFODive kommenterte at dette er «en vekker for hele bedriftsfinanssektoren» på grunn av de potensielle risikoene ved å la maskiner delta i en prosess som krever absolutt presisjon.
Faktisk er Deloitte en av pionerene innen bruk av AI-teknologi i revisjonsprosessen. Gruppen har investert mer enn 1 milliard dollar i digital transformasjon, med en forpliktelse til å utnytte kraften i stordata og maskinlæring for å øke effektiviteten og analytisk dybde. Ifølge Financial News London har mer enn 75 % av Deloittes revisorer i Storbritannia brukt en intern chatbot kalt «PairD», en tredobling fra året før.
AI hjelper revisorer med å behandle enorme datamengder, trekke ut informasjon fra tusenvis av sider med kontrakter, oppdage avvik og spare hundrevis av arbeidstimer. Hendelsen hos Deloitte Australia viser imidlertid ulempene med denne prosessen: Når teknologien ikke overvåkes nøye, kan AI skape «fiksjonsinnhold» – informasjon som virker rimelig, men som faktisk er fullstendig feil.

(Foto: Getty Images)
Ifølge granskingsrapporten siterte Deloittes 237-siders rapport en australsk føderal domstolsavgjørelse som aldri kom frem i lyset. Noen av referansene i vedlegget eksisterte heller ikke. Først etter at et statlig organ gransket og avhørte Deloitte, innrømmet de at AI-verktøy hadde blitt brukt i kompileringsprosessen. Selv om selskapet hevdet at «AI bare spilte en støttende rolle», skadet hendelsen merkevareomdømmet betydelig og reiste spørsmål om åpenheten i arbeidsprosessen.
Problemet her er ikke bare en teknisk feil, men en som berører selve røttene til revisjonsyrket – som er basert på sosial tillit. Når et av verdens fire største revisjonsfirmaer gjør en AI-relatert feil, rystes offentlighetens tillit til uavhengigheten og etikken i hele bransjen.
Denne virkningen er enda mer alvorlig i sammenheng med at AI har blitt et populært verktøy i andre revisjonsfirmaer som PwC, EY eller KPMG. Ifølge en undersøkelse fra Center for Audit Quality (CAQ) sa mer enn 1/3 av globale revisjonspartnere at de har brukt eller planlegger å bruke AI i revisjonsprosessen. Dette betyr at risikoen for systemfeil, hvis den ikke håndteres riktig, kan spre seg på global skala.
Revisjon i kunstig intelligens' tidsalder: Muligheter og advarsler
Dette sjokket førte til at revisjonsbransjen ble tvunget til å revurdere hvordan den beveget seg inn i AI-æraen – der muligheter og risikoer flettes sammen. Etter hendelsen annonserte Deloitte raskt «Trustworthy AI Framework» – et system med retningslinjer for ansvarlig bruk av AI, med fokus på fem prinsipper: rettferdighet, åpenhet, forklarbarhet, ansvarlighet og konfidensialitet. Selskapet utvidet også sin globale Omnia Audit Platform, og integrerte «GenAI»-funksjoner for å støtte analyse- og rapporteringsprosessen. Deloitte bekreftet at alle resultater generert av AI må kontrolleres og verifiseres av menneskelige eksperter før de publiseres.
Eksperter sier imidlertid at Deloittes innsats – selv om den er nødvendig – bare er det første skrittet på en lang reise for å justere forholdet mellom mennesker og teknologi i revisjonsbransjen. Eksperter i Financial Times advarer om at mange selskaper «kappløper med AI» uten å etablere klare kontroll- og konsekvensanalysemekanismer. AI sparer tid, men visker samtidig ut grensen mellom menneskelig og maskinell arbeid – spesielt i oppgaver som krever dømmekraft og profesjonell skepsis, noe som er revisorers natur.
PwC, et annet medlem av de fire store, har offentlig justert opplæringsprogrammet sitt for nyansatte: i stedet for å utføre grunnleggende revisjon, vil de lære å «overvåke AI», analysere resultater og vurdere teknologiske risikoer. Ifølge Business Insider mener firmaet at «fremtidens revisor ikke lenger bare vil kunne lese tall, men også forstå hvordan maskiner tenker».

(Foto: Rahul)
I mellomtiden begynner regulatorer og profesjonelle organer å vurdere å utstede nye standarder for «AI-revisjon». International Auditing and Assurance Standards Board (IAASB) jobber med ytterligere veiledning om bruk av AI-verktøy i bevisinnsamling og rapportering. Noen eksperter har foreslått å lage en egen revisjonsstandard for å sikre global konsistens.
Denne utviklingen viser at revisjonsbransjen går inn i en periode med dyp transformasjon. Teknologi kan ikke elimineres, men bruken av den krever nøye og streng kontroll. Ellers kan risikoen for å miste kontroll føre til at tilliten til det finansielle systemet – som har vært opprettholdt i århundrer – kollapser på bare noen få klikk.
Fra et mulighetsperspektiv lover AI enestående gjennombrudd: evnen til å behandle millioner av transaksjoner på kort tid, oppdage sofistikert svindel som er vanskelig for mennesker å oppdage, og åpne opp for konseptet «kontinuerlig revisjon» – overvåking av risikoer i sanntid. Deloitte, PwC, KPMG og EY investerer alle hundrevis av millioner dollar hvert år for å utvikle sine egne AI-systemer.
Muligheter kan imidlertid bare omsettes til reell verdi når de ledsages av ansvar. Lærdommen fra Deloitte Australia viser at teknologi kan endre måten man jobber på, men den kan ikke erstatte etikk og menneskelig verifisering. I AI-revisjonens verden er tillit fortsatt den største fordelen.
Ekspertene har trukket mange viktige lærdommer fra Deloitte-saken:
- Absolutt åpenhet i bruken av AI: Alt innhold som opprettes eller støttes av AI-verktøy må tydelig opplyses til kunder og regulatorer.
– Forbedre opplærings- og tilsynsferdigheter: Revisorer må forstå hvordan AI fungerer, kjenne teknologiens begrensninger og kunne vurdere rimeligheten av resultatene.
– Etablere en revisjonsmekanisme for AI: Ikke bare økonomiske data må revideres, men AI-prosesser og -modeller må også «revideres» for å sikre objektivitet og åpenhet.
– Opprettholde yrkesetikk: Uansett hvor mye teknologien utvikler seg, forblir kjerneprinsippene for revisjon «uavhengighet, ærlighet og objektivitet».
Kilde: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Kommentar (0)