
(Zdjęcie: LinkedIn)
Deloitte, jeden z audytorów „Wielkiej Czwórki” na świecie , został oskarżony o wykorzystywanie sztucznej inteligencji (AI) do sporządzania raportów zawierających fałszywe informacje. Incydent ten nie tylko zachwiał reputacją firmy, ale także wywołał globalną debatę na temat odpowiedzialnego wykorzystania AI w branży opartej na uczciwości, dokładności i zaufaniu.
„Upadek” przywódcy
Według informacji AP News (październik 2025 r.), Deloitte Australia zgodziło się zwrócić rządowi Australii część wartości kontraktu o wartości 440 000 AUD (równowartość około 290 000 USD) po odkryciu, że raport przesłany do Departamentu Pracy i Stosunków Zatrudnienia (DEWR) zawierał nieistniejące cytaty prawne i fałszywe prace naukowe. Wewnętrzna kontrola przeprowadzona później przez Deloitte potwierdziła, że część treści została wygenerowana przez narzędzie „Azure OpenAI” – model sztucznej inteligencji firmy Microsoft.
Incydent natychmiast wywołał reakcję łańcuchową, co skłoniło ekspertów i agencje zarządzające do jednoczesnego ostrzeżenia: technologia rozwija się szybciej niż ramy prawne i możliwości nadzoru ze strony człowieka. CFODive skomentował to, nazywając to „sygnałem alarmowym dla całego sektora finansów korporacyjnych” ze względu na potencjalne ryzyko związane z udziałem maszyn w procesie wymagającym absolutnej precyzji.
Deloitte jest jednym z pionierów w stosowaniu technologii sztucznej inteligencji (AI) w procesie audytu. Grupa zainwestowała ponad miliard dolarów w transformację cyfrową, dążąc do wykorzystania potencjału dużych zbiorów danych i uczenia maszynowego w celu zwiększenia efektywności i głębi analitycznej. Według Financial News London, w Wielkiej Brytanii ponad 75% audytorów Deloitte korzystało z wewnętrznego chatbota o nazwie „PairD”, co stanowi trzykrotny wzrost w porównaniu z rokiem poprzednim.
Sztuczna inteligencja pomaga audytorom przetwarzać ogromne ilości danych, wyodrębniać informacje z tysięcy stron umów, wykrywać anomalie i oszczędzać setki godzin pracy. Jednak incydent w Deloitte Australia pokazuje wady tego procesu: gdy technologia nie jest ściśle monitorowana, sztuczna inteligencja może tworzyć „fikcyjną” treść – informacje, które wydają się rozsądne, ale w rzeczywistości są całkowicie fałszywe.

(Zdjęcie: Getty Images)
Według raportu z dochodzenia, 237-stronicowy raport Deloitte powoływał się na orzeczenie australijskiego sądu federalnego, które nigdy nie ujrzało światła dziennego. Niektóre z odniesień w załączniku również nie istniały. Dopiero po zbadaniu i przesłuchaniu Deloitte przez agencję rządową, firma przyznała, że w procesie kompilacji wykorzystano narzędzia sztucznej inteligencji. Chociaż firma twierdziła, że „sztuczna inteligencja odegrała jedynie rolę pomocniczą”, incydent ten znacząco zaszkodził reputacji marki i podważył transparentność jej procesu pracy.
Problem nie polega jedynie na błędzie technicznym, ale na tym, co dotyka samych korzeni zawodu audytora – opartego na zaufaniu społecznym. Kiedy jedna z czterech największych firm audytorskich na świecie popełnia błąd związany ze sztuczną inteligencją, zaufanie społeczne do niezależności i etyki całej branży zostaje zachwiane.
Wpływ ten jest jeszcze poważniejszy w kontekście rosnącej popularności sztucznej inteligencji (AI) w innych firmach audytorskich, takich jak PwC, EY czy KPMG. Według badania przeprowadzonego przez Centrum Jakości Audytu (CAQ), ponad 1/3 globalnych partnerów audytorskich zadeklarowała, że korzystała lub planuje korzystać ze sztucznej inteligencji w procesie audytu. Oznacza to, że ryzyko błędów systemowych, jeśli nie będzie odpowiednio zarządzane, może rozprzestrzenić się na skalę globalną.
Audyt w erze sztucznej inteligencji: szanse i ostrzeżenia
W wyniku tego szoku branża audytorska została zmuszona do ponownego przeanalizowania sposobu, w jaki wkracza w erę sztucznej inteligencji (AI) – gdzie szanse i zagrożenia przeplatają się. Po tym incydencie Deloitte szybko ogłosił „Rama Zaufanej AI” – system wytycznych dotyczących odpowiedzialnego korzystania ze sztucznej inteligencji (AI), koncentrujący się na pięciu zasadach: uczciwości, przejrzystości, wyjaśnialności, odpowiedzialności i poufności. Firma rozszerzyła również swoją globalną platformę audytorską Omnia, integrując możliwości „GenAI” w celu wsparcia procesu analizy i raportowania. Deloitte potwierdził, że wszystkie wyniki generowane przez AI muszą zostać sprawdzone i zweryfikowane przez ekspertów przed ich opublikowaniem.
Eksperci twierdzą jednak, że działania Deloitte – choć konieczne – to dopiero pierwszy krok w długiej drodze do dostosowania relacji między ludźmi a technologią w branży audytorskiej. Eksperci z Financial Times ostrzegają, że wiele firm „ściga się z AI” bez ustanowienia jasnych mechanizmów kontroli i oceny wpływu. AI oszczędza czas, ale jednocześnie zaciera granicę między pracą człowieka a maszyn – zwłaszcza w zadaniach wymagających osądu i profesjonalnego sceptycyzmu, co jest cechą charakterystyczną audytorów.
PwC, kolejny członek Wielkiej Czwórki, publicznie zmodyfikował swój program szkoleniowy dla nowych pracowników: zamiast przeprowadzać podstawowe audyty, będą oni uczyć się „monitorowania sztucznej inteligencji”, analizowania wyników i oceny ryzyka technologicznego. Według Business Insider, firma wierzy, że „audytor przyszłości nie będzie już tylko potrafił czytać liczby, ale także rozumieć, jak myślą maszyny”.

(Zdjęcie: Rahul)
Tymczasem organy regulacyjne i organizacje zawodowe zaczynają rozważać wydanie nowych standardów dla „audytu AI”. Międzynarodowa Rada Standardów Audytu i Zapewnienia Jakości (IAASB) pracuje nad dodatkowymi wytycznymi dotyczącymi wykorzystania narzędzi AI w gromadzeniu dowodów i raportowaniu. Niektórzy eksperci zaproponowali stworzenie odrębnego standardu audytu w celu zapewnienia globalnej spójności.
Te zmiany pokazują, że branża audytorska wkracza w okres głębokiej transformacji. Technologii nie da się wyeliminować, ale jej stosowanie wymaga starannej i ścisłej kontroli. W przeciwnym razie ryzyko utraty kontroli może doprowadzić do upadku zaufania do systemu finansowego – pielęgnowanego przez wieki – zaledwie kilkoma kliknięciami.
Z perspektywy nowych możliwości, sztuczna inteligencja obiecuje bezprecedensowy przełom: możliwość przetwarzania milionów transakcji w krótkim czasie, wykrywania wyrafinowanych oszustw, trudnych do wykrycia przez ludzi, oraz wprowadzenie koncepcji „ciągłego audytu” – monitorowania ryzyka w czasie rzeczywistym. Deloitte, PwC, KPMG i EY inwestują każdego roku setki milionów dolarów w rozwój własnych systemów sztucznej inteligencji.
Jednak szanse mogą przekształcić się w realną wartość tylko wtedy, gdy towarzyszy im odpowiedzialność. Lekcja z Deloitte Australia pokazuje, że technologia może zmienić sposób pracy, ale nie zastąpi etyki i weryfikacji ludzkiej. W świecie audytów AI zaufanie wciąż jest największym atutem.
Ze sprawy Deloitte eksperci wyciągnęli wiele ważnych wniosków:
- Pełna przejrzystość w korzystaniu ze sztucznej inteligencji: Wszelkie treści tworzone lub obsługiwane przez narzędzia sztucznej inteligencji muszą być jasno ujawniane klientom i organom regulacyjnym.
- Poprawa umiejętności szkoleniowych i nadzorczych: Audytorzy muszą rozumieć, jak działa sztuczna inteligencja, znać ograniczenia technologii i być w stanie ocenić zasadność wyników.
- Ustanowić mechanizm audytu dla sztucznej inteligencji: Audytowi należy poddawać nie tylko dane finansowe, ale również procesy i modele sztucznej inteligencji, aby zapewnić obiektywność i przejrzystość.
- Przestrzegaj zasad etyki zawodowej: Bez względu na rozwój technologii, podstawowymi zasadami audytu pozostają „niezależność, uczciwość i obiektywizm”.
Źródło: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Komentarz (0)