
(Foto: LinkedIn)
Deloitte, unul dintre cei „Patru Mari” auditori la nivel mondial , a fost acuzat că a folosit inteligența artificială (IA) pentru a compila rapoarte care conțin informații false. Incidentul nu numai că a zdruncinat reputația firmei, dar a stârnit și o dezbatere globală despre utilizarea responsabilă a IA într-un domeniu bazat pe onestitate, acuratețe și încredere.
„Căderea” liderului
Conform informațiilor AP News (octombrie 2025), Deloitte Australia a fost de acord să ramburseze guvernului australian o parte din valoarea contractului în valoare de 440.000 AUD (echivalentul a aproximativ 290.000 USD), după ce a descoperit că raportul trimis Departamentului pentru Relații de Muncă și Angajare (DEWR) conținea citări legale inexistente și lucrări academice false. O analiză internă realizată de Deloitte a confirmat ulterior că o parte din conținut a fost generată de instrumentul „Azure OpenAI” - modelul de inteligență artificială al Microsoft.
Incidentul a creat imediat o reacție în lanț, determinând experții și agențiile de management să avertizeze simultan: tehnologia avansează mai repede decât cadrul legal și capacitățile de supraveghere umană. CFODive a comentat că acesta este „un semnal de alarmă pentru întregul sector financiar corporativ”, din cauza riscurilor potențiale asociate cu permiterea participării mașinilor la un proces care necesită o precizie absolută.
De fapt, Deloitte este unul dintre pionierii în aplicarea tehnologiei AI în procesul de audit. Grupul a investit peste 1 miliard de dolari în transformarea digitală, angajându-se să valorifice puterea big data și a învățării automate pentru a crește eficiența și profunzimea analitică. Potrivit Financial News London, în Marea Britanie, peste 75% dintre auditorii Deloitte au folosit un chatbot intern numit „PairD”, o creștere de trei ori față de anul precedent.
Inteligența artificială ajută auditorii să proceseze volume uriașe de date, să extragă informații din mii de pagini de contracte, să detecteze anomalii și să economisească sute de ore de muncă. Cu toate acestea, incidentul de la Deloitte Australia arată dezavantajul acestui proces: atunci când tehnologia nu este monitorizată îndeaproape, inteligența artificială poate crea conținut „fictiv” - informații care par rezonabile, dar sunt de fapt complet false.

(Foto: Getty Images)
Conform raportului de investigație, raportul Deloitte de 237 de pagini a citat o hotărâre a unei instanțe federale australiene care nu a ieșit niciodată la iveală. Unele dintre referințele din anexă nu existau nici ele. Abia după ce o agenție guvernamentală a examinat și a chestionat Deloitte, aceasta a recunoscut că instrumente de inteligență artificială au fost utilizate în procesul de compilare. Deși compania a afirmat că „inteligenta artificială a jucat doar un rol secundar”, incidentul a afectat semnificativ reputația mărcii sale și a ridicat semne de întrebare cu privire la transparența procesului său de lucru.
Problema aici nu este doar o eroare tehnică, ci una care atinge însăși rădăcinile profesiei de audit – care se bazează pe încrederea socială. Atunci când una dintre cele mai mari patru firme de audit din lume face o greșeală legată de inteligența artificială, încrederea publicului în independența și etica întregii industrii este zdruncinată.
Acest impact este și mai grav în contextul în care inteligența artificială (IA) a devenit un instrument popular în alte firme de audit, precum PwC, EY sau KPMG. Conform unui sondaj realizat de Centrul pentru Calitatea Auditului (CAQ), peste 1/3 dintre partenerii de audit la nivel global au declarat că au utilizat sau intenționează să utilizeze IA în procesul de audit. Aceasta înseamnă că riscul erorilor de sistem, dacă nu este gestionat corespunzător, se poate răspândi la scară globală.
Auditul în era inteligenței artificiale: oportunități și avertismente
În urma acelui șoc, industria de audit a fost forțată să reexamineze modul în care trecea în era IA – unde oportunitățile și riscurile se împletesc. După incident, Deloitte a anunțat rapid „Cadrul IA de încredere” – un sistem de linii directoare pentru utilizarea responsabilă a IA, concentrându-se pe cinci principii: corectitudine, transparență, explicabilitate, responsabilitate și confidențialitate. Compania și-a extins, de asemenea, platforma globală Omnia Audit, integrând capabilități „GenAI” pentru a sprijini procesul de analiză și raportare. Deloitte a afirmat că toate rezultatele generate de IA trebuie verificate și verificate de experți umani înainte de a fi publicate.
Cu toate acestea, experții spun că eforturile Deloitte – deși necesare – reprezintă doar primul pas dintr-o lungă călătorie de ajustare a relației dintre oameni și tehnologie în industria auditului. Experții de la Financial Times avertizează că multe companii „concurează cu inteligența artificială” fără a stabili mecanisme clare de control și evaluare a impactului. Inteligența artificială economisește timp, dar, în același timp, estompează linia dintre munca umană și cea a mașinilor – în special în sarcinile care necesită judecată și scepticism profesional, ceea ce este în natura auditorilor.
PwC, un alt membru al grupului Big Four, și-a modificat public programul de instruire pentru noii angajați: în loc să efectueze audit de bază, aceștia vor învăța cum să „monitorizeze inteligența artificială”, să analizeze rezultatele și să evalueze riscurile tehnologice. Potrivit Business Insider, firma consideră că „auditorul viitorului nu va mai putea doar să citească cifre, ci va mai putea și să înțeleagă cum gândesc mașinile”.

(Foto: Rahul)
Între timp, autoritățile de reglementare și organismele profesionale încep să ia în considerare emiterea de noi standarde pentru „auditul IA”. Consiliul pentru Standarde Internaționale de Audit și Asigurare (IAASB) lucrează la îndrumări suplimentare privind utilizarea instrumentelor IA în colectarea și raportarea dovezilor. Unii experți au propus crearea unui standard de audit separat pentru a asigura consecvența la nivel global.
Aceste evoluții arată că industria auditului intră într-o perioadă de transformare profundă. Tehnologia nu poate fi eliminată, dar aplicarea ei necesită un control atent și strict. În caz contrar, riscul pierderii controlului poate face ca încrederea în sistemul financiar - menținută timp de secole - să se prăbușească în doar câteva clicuri.
Din perspectiva oportunităților, inteligența artificială promite descoperiri fără precedent: capacitatea de a procesa milioane de tranzacții într-un timp scurt, de a detecta fraude sofisticate care sunt dificil de detectat de către oameni și de a deschide calea conceptului de „audit continuu” - monitorizarea riscurilor în timp real. Deloitte, PwC, KPMG și EY investesc toate sute de milioane de dolari în fiecare an pentru a-și dezvolta propriile sisteme de inteligență artificială.
Totuși, oportunitățile pot fi transformate în valoare reală doar atunci când sunt însoțite de responsabilitate. Lecția de la Deloitte Australia arată că tehnologia poate schimba modul de lucru, dar nu poate înlocui etica și verificarea umană. În lumea auditului bazat pe inteligență artificială, încrederea este încă cel mai important atu.
Din cazul Deloitte, experții au tras multe lecții importante:
- Transparență absolută în utilizarea inteligenței artificiale: Orice conținut creat sau susținut de instrumente de inteligență artificială trebuie să fie dezvăluit în mod clar clienților și autorităților de reglementare.
- Îmbunătățirea abilităților de instruire și supraveghere: Auditorii trebuie să înțeleagă cum funcționează inteligența artificială, să cunoască limitele tehnologiei și să fie capabili să evalueze caracterul rezonabil al rezultatelor.
- Stabilirea unui mecanism de audit pentru IA: Nu doar datele financiare trebuie auditate, ci și procesele și modelele de IA trebuie „reauditate” pentru a asigura obiectivitatea și transparența.
- Mențineți etica profesională: Indiferent cât de mult se dezvoltă tehnologia, principiile de bază ale auditului rămân „independența, onestitatea și obiectivitatea”.
Sursă: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Comentariu (0)