
(Foto: LinkedIn)
Společnost Deloitte, jeden z auditorských subjektů „velké čtyřky“ na světě , byla obviněna z používání umělé inteligence (AI) k sestavování zpráv obsahujících nepravdivé informace. Incident nejenže otřásl pověstí firmy, ale také vyvolal globální debatu o zodpovědném používání AI v oblasti, která je založena na poctivosti, přesnosti a důvěře.
„Pád“ vůdce
Podle informací agentury AP News (říjen 2025) se společnost Deloitte Australia dohodla na vrácení části smluvní hodnoty australské vládě v hodnotě 440 000 AUD (ekvivalent přibližně 290 000 USD) poté, co zjistila, že zpráva zaslaná Ministerstvu práce a zaměstnaneckých vztahů (DEWR) obsahovala neexistující právní citace a falešné akademické práce. Interní kontrola provedená společností Deloitte později potvrdila, že část obsahu byla vygenerována nástrojem „Azure OpenAI“ – modelem umělé inteligence od společnosti Microsoft.
Incident okamžitě vyvolal řetězovou reakci, která vedla experty a manažerské agentury k současnému varování: technologie se vyvíjejí rychleji než právní rámec a lidské dohledové schopnosti. CFODive poznamenal, že se jedná o „budíček pro celý sektor podnikových financí“ kvůli potenciálním rizikům plynoucím z účasti strojů v procesu, který vyžaduje absolutní přesnost.
Společnost Deloitte je ve skutečnosti jedním z průkopníků v zavádění technologií umělé inteligence do auditorského procesu. Skupina investovala více než 1 miliardu dolarů do digitální transformace a zavázala se využít sílu velkých dat a strojového učení ke zvýšení efektivity a analytické hloubky. Podle Financial News London ve Spojeném království více než 75 % auditorů společnosti Deloitte použilo interního chatbota s názvem „PairD“, což je trojnásobný nárůst oproti předchozímu roku.
Umělá inteligence pomáhá auditorům zpracovávat obrovské objemy dat, extrahovat informace z tisíců stránek smluv, odhalovat anomálie a šetří stovky hodin práce. Incident ve společnosti Deloitte Australia však ukazuje stinnou stránku tohoto procesu: pokud technologie není pečlivě monitorována, může umělá inteligence vytvářet „fiktivní“ obsah – informace, které se zdají být rozumné, ale ve skutečnosti jsou zcela nepravdivé.

(Foto: Getty Images)
Podle vyšetřovací zprávy 237stránková zpráva společnosti Deloitte citovala rozhodnutí australského federálního soudu, které se nikdy nedostalo na veřejnost. Některé z odkazů v dodatku také neexistovaly. Teprve poté, co vládní agentura společnost Deloitte prozkoumala a vyslechla, společnost přiznala, že v procesu kompilace byly použity nástroje umělé inteligence. Ačkoli společnost tvrdila, že „umělá inteligence hrála pouze podpůrnou roli“, incident výrazně poškodil reputaci její značky a vyvolal otázky ohledně transparentnosti jejího pracovního procesu.
Problém zde není jen v technické chybě, ale v chybě, která se dotýká samotných kořenů auditorské profese – ty jsou založeny na společenské důvěře. Když jedna ze čtyř největších auditorských firem na světě udělá chybu související s umělou inteligencí, otřásá se důvěra veřejnosti v nezávislost a etiku celého odvětví.
Tento dopad je ještě závažnější v kontextu toho, že se umělá inteligence stává populárním nástrojem i v dalších auditorských firmách, jako jsou PwC, EY nebo KPMG. Podle průzkumu Centra pro kvalitu auditu (CAQ) více než třetina globálních auditorských partnerů uvedla, že umělou inteligenci v auditním procesu použili nebo plánují použít. To znamená, že riziko systémových chyb, pokud není řádně řízeno, se může rozšířit v globálním měřítku.
Audit v éře umělé inteligence: Příležitosti a varování
Z tohoto šoku byl auditorský průmysl nucen znovu přehodnotit, jakým způsobem přechází do éry umělé inteligence – kde se prolínají příležitosti a rizika. Po incidentu společnost Deloitte rychle oznámila „Trustworthy AI Framework“ – systém pokynů pro zodpovědné používání umělé inteligence, zaměřený na pět principů: spravedlnost, transparentnost, vysvětlitelnost, odpovědnost a důvěrnost. Společnost také rozšířila svou globální auditní platformu Omnia a integrovala funkce „GenAI“ na podporu procesu analýzy a reportingu. Společnost Deloitte potvrdila, že všechny výsledky generované umělou inteligencí musí být před zveřejněním zkontrolovány a ověřeny lidskými experty.
Odborníci však tvrdí, že úsilí společnosti Deloitte – ačkoli je nezbytné – je pouze prvním krokem na dlouhé cestě k úpravě vztahu mezi lidmi a technologiemi v auditorském průmyslu. Odborníci z Financial Times varují, že mnoho společností „závodí s umělou inteligencí“, aniž by zavedly jasné mechanismy kontroly a hodnocení dopadů. Umělá inteligence šetří čas, ale zároveň stírá hranici mezi lidskou a strojovou prací – zejména u úkolů, které vyžadují úsudek a profesionální skepticismus, což je pro auditory povahou.
Společnost PwC, další člen velké čtyřky, veřejně upravila svůj školicí program pro nové zaměstnance: místo provádění základního auditu se nově zaměstnanci naučí „monitorovat umělou inteligenci“, analyzovat výsledky a posuzovat technologická rizika. Podle serveru Business Insider se firma domnívá, že „auditor budoucnosti už nebude schopen jen číst čísla, ale také rozumět tomu, jak stroje myslí“.

(Foto: Rahul)
Regulační orgány a profesní organizace mezitím začínají zvažovat vydání nových standardů pro „audity umělé inteligence“. Rada pro mezinárodní auditorské a ověřovací standardy (IAASB) pracuje na dalších pokynech k používání nástrojů umělé inteligence při shromažďování důkazů a vykazování. Někteří odborníci navrhli vytvoření samostatného auditorského standardu, který by zajistil globální konzistenci.
Tento vývoj ukazuje, že auditorský průmysl vstupuje do období hluboké transformace. Technologie nelze zcela vyloučit, ale jejich aplikace vyžaduje pečlivou a přísnou kontrolu. V opačném případě může riziko ztráty kontroly způsobit, že se důvěra ve finanční systém – udržovaná po staletí – zhroutí během několika kliknutí.
Z pohledu příležitostí slibuje umělá inteligence nebývalé průlomy: schopnost zpracovat miliony transakcí v krátkém čase, odhalit sofistikované podvody, které je pro člověka obtížné odhalit, a otevřít koncept „kontinuálního auditu“ – monitorování rizik v reálném čase. Společnosti Deloitte, PwC, KPMG a EY investují každoročně stovky milionů dolarů do vývoje vlastních systémů umělé inteligence.
Příležitosti se však mohou proměnit ve skutečnou hodnotu pouze tehdy, když jsou doprovázeny odpovědností. Poučení ze společnosti Deloitte Australia ukazuje, že technologie mohou změnit způsob práce, ale nemohou nahradit etiku a lidské ověřování. Ve světě auditů s využitím umělé inteligence je důvěra stále největším aktivem.
Z případu Deloitte si experti odnesli mnoho důležitých ponaučení:
- Absolutní transparentnost při používání umělé inteligence: Veškerý obsah vytvořený nebo podporovaný nástroji umělé inteligence musí být jasně zveřejněn zákazníkům a regulačním orgánům.
- Zlepšit dovednosti v oblasti školení a dohledu: Auditoři musí rozumět tomu, jak umělá inteligence funguje, znát limity technologie a být schopni vyhodnotit přiměřenost výsledků.
- Zavést auditní mechanismus pro umělou inteligenci: Auditovat je třeba nejen finanční údaje, ale také „znovu“ auditovat procesy a modely umělé inteligence, aby byla zajištěna objektivita a transparentnost.
- Dodržování profesní etiky: Bez ohledu na to, jak moc se technologie rozvíjí, základními principy auditu zůstávají „nezávislost, poctivost a objektivita“.
Zdroj: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Komentář (0)