Vietnam.vn - Nền tảng quảng bá Việt Nam

Branża audytorska odczuwa skutki sztucznej inteligencji.

VTV.vn - Światowa branża audytorska właśnie przeżyła bezprecedensowy szok.

Đài truyền hình Việt NamĐài truyền hình Việt Nam05/11/2025

(Ảnh: Linkedln)

(Zdjęcie: LinkedIn)

Deloitte – jedna z czterech wiodących firm audytorskich na świecie – została oskarżona o wykorzystywanie sztucznej inteligencji (AI) do tworzenia raportów zawierających fałszywe informacje. Incydent ten nie tylko zachwiał reputacją firmy, ale także zapoczątkował globalną debatę na temat odpowiedzialnego wykorzystania AI w branży opartej na uczciwości, dokładności i zaufaniu.

„Upadek” przywódcy

Według AP News (październik 2025 r.), australijski oddział Deloitte zgodził się zwrócić australijskiemu rządowi część kontraktu o wartości 440 000 AUD (około 290 000 USD) po odkryciu, że raport złożony do Departamentu Pracy i Stosunków Zatrudnienia (DEWR) zawierał nieistniejące cytaty prawne i sfałszowane dokumenty akademickie. Późniejsza wewnętrzna kontrola przeprowadzona przez Deloitte potwierdziła, że ​​część treści została wygenerowana przez narzędzie sztucznej inteligencji „Azure OpenAI” firmy Microsoft.

Incydent natychmiast wywołał reakcję łańcuchową, co skłoniło ekspertów i organy regulacyjne do wydania ostrzeżeń, że technologia rozwija się szybciej niż ramy prawne i możliwości nadzoru ze strony człowieka. CFODive stwierdził, że jest to „sygnał alarmowy dla całego sektora finansów korporacyjnych”, podkreślając potencjalne ryzyko związane z umożliwieniem maszynom udziału w procesach wymagających absolutnej precyzji.

Deloitte jest jednym z pionierów w stosowaniu technologii sztucznej inteligencji (AI) w procesach audytu. Firma zainwestowała ponad miliard dolarów w transformację cyfrową, dążąc do wykorzystania potencjału dużych zbiorów danych i uczenia maszynowego w celu zwiększenia efektywności i głębi analitycznej. Według Financial News London, w Wielkiej Brytanii ponad 75% pracowników Deloitte zajmujących się audytem korzystało z wewnętrznego chatbota o nazwie „PairD”, co stanowi trzykrotny wzrost w porównaniu z rokiem poprzednim.

Sztuczna inteligencja pomaga audytorom przetwarzać ogromne ilości danych, wyodrębniać informacje z tysięcy stron umów, wykrywać anomalie i oszczędzać setki godzin pracy. Jednak incydent w Deloitte Australia pokazuje wady tego procesu: gdy technologia nie jest ściśle monitorowana, sztuczna inteligencja może tworzyć „fikcyjne” treści – informacje, które wydają się wiarygodne, ale w rzeczywistości są całkowicie fałszywe.

Ngành kiểm toán chấn động vì AI - Ảnh 1.

(Zdjęcie: Getty Images)

Według raportu z dochodzenia, 237-stronicowy raport Deloitte powoływał się na orzeczenie australijskiego sądu federalnego, które w rzeczywistości nigdy nie nastąpiło. Kilka odniesień w załączniku również nie istniało. Dopiero po dogłębnej analizie i przesłuchaniu przez agencje rządowe Deloitte przyznało, że w procesie kompilacji wykorzystano sztuczną inteligencję. Chociaż firma utrzymywała, że ​​„sztuczna inteligencja odegrała jedynie rolę pomocniczą”, incydent ten znacząco zaszkodził reputacji marki i podważył transparentność procesów roboczych.

Problem nie dotyczy wyłącznie błędu technicznego; dotyka on samych korzeni zawodu audytora – opartego na zaufaniu społecznym. Kiedy jedna z czterech największych firm audytorskich na świecie popełnia błąd związany ze sztuczną inteligencją, zaufanie społeczne do niezależności i etyki zawodowej całej branży zostaje zachwiane.

Wpływ ten jest jeszcze poważniejszy, biorąc pod uwagę, że sztuczna inteligencja staje się powszechnym narzędziem w innych firmach audytorskich, takich jak PwC, EY i KPMG. Według badania przeprowadzonego przez Centrum Jakości Audytu (CAQ), ponad jedna trzecia globalnych partnerów audytorskich stwierdziła, że ​​korzystała lub planuje korzystać ze sztucznej inteligencji w swoich procesach audytu. Oznacza to, że ryzyko błędów systemowych, jeśli nie będzie odpowiednio zarządzane, może rozprzestrzenić się na cały świat.

Audyt czasu AI: szanse i ostrzeżenia

Po tym incydencie branża audytorska została zmuszona do ponownej oceny swojego podejścia do ery sztucznej inteligencji (AI), w której szanse i zagrożenia są ze sobą powiązane. Po tym wydarzeniu Deloitte szybko ogłosiło „Rama Zaufanej Sztucznej Inteligencji” (Trustworthy AI Framework) – system wytycznych dotyczących odpowiedzialnego korzystania ze sztucznej inteligencji (AI), koncentrujący się na pięciu zasadach: uczciwości, przejrzystości, wyjaśnialności, rozliczalności i poufności. Firma rozszerzyła również swoją globalną platformę audytorską Omnia, integrując funkcje „GenAI” w celu wsparcia procesów analizy i raportowania. Deloitte potwierdziło, że wszystkie wyniki generowane przez sztuczną inteligencję muszą zostać sprawdzone i zweryfikowane przez ekspertów przed ich opublikowaniem.

Eksperci uważają jednak, że działania Deloitte – choć konieczne – to dopiero pierwszy krok w długiej drodze do ujednolicenia relacji między ludźmi a technologią w branży audytorskiej. Eksperci z Financial Times ostrzegają, że wiele firm „ściga się ze sztuczną inteligencją” bez ustanowienia jasnych mechanizmów kontroli i oceny jej wpływu. Sztuczna inteligencja oszczędza czas, ale jednocześnie zaciera granice między pracą człowieka a maszyn – zwłaszcza w zadaniach wymagających osądu i profesjonalnego sceptycyzmu, które są nieodłączną cechą pracy audytorów.

PwC – kolejny członek Wielkiej Czwórki – publicznie zmodyfikował swój program szkoleniowy dla nowych pracowników: zamiast wykonywania podstawowych zadań audytorskich, nauczą się oni „monitorowania sztucznej inteligencji”, analizowania wyników i oceny ryzyka technologicznego. Według Business Insider, firma uważa, że ​​„przyszli audytorzy nie będą już umieli tylko czytać liczby, ale będą musieli zrozumieć, jak myślą maszyny”.

Ngành kiểm toán chấn động vì AI - Ảnh 2.

(Zdjęcie: Rahul)

Tymczasem organy regulacyjne i organizacje zawodowe zaczynają rozważać wydanie nowych standardów dla „audytu opartego na sztucznej inteligencji”. Międzynarodowa Rada Standardów Audytu i Zapewnienia Jakości (IAASB) analizuje możliwość dodania wytycznych dotyczących wykorzystania narzędzi sztucznej inteligencji w gromadzeniu dowodów i raportowaniu. Niektórzy eksperci sugerują ustanowienie odrębnego standardu audytu w celu zapewnienia globalnej spójności.

Te wydarzenia wskazują, że branża audytorska wkracza w okres głębokiej transformacji. Technologii nie da się wyeliminować, ale jej stosowanie wymaga ostrożności i ścisłej kontroli. W przeciwnym razie ryzyko utraty kontroli może doprowadzić do załamania się zaufania do systemu finansowego – podtrzymywanego od wieków – zaledwie kilkoma kliknięciami.

Z perspektywy nowych możliwości, sztuczna inteligencja obiecuje bezprecedensowy przełom: możliwość przetwarzania milionów transakcji w krótkim czasie, wykrywania wyrafinowanych oszustw, trudnych do wykrycia przez ludzi, oraz wprowadzenie koncepcji „ciągłego audytu” – monitorowania ryzyka w czasie rzeczywistym. Deloitte, PwC, KPMG i EY inwestują rocznie setki milionów dolarów w rozwój własnych systemów sztucznej inteligencji.

Jednak szanse mogą przekształcić się w realną wartość tylko wtedy, gdy towarzyszy im odpowiedzialność. Lekcja z Deloitte Australia pokazuje, że technologia może zmienić nasz sposób pracy, ale nie zastąpi ludzkiej etyki i weryfikacji. W świecie audytów wspomaganych przez sztuczną inteligencję, zaufanie pozostaje największym atutem.

Eksperci wyciągnęli kilka ważnych wniosków ze sprawy Deloitte:

- Pełna przejrzystość w korzystaniu ze sztucznej inteligencji: Wszelkie treści tworzone lub obsługiwane przez narzędzia sztucznej inteligencji muszą być jasno ujawniane klientom i organom regulacyjnym.

- Lepsze umiejętności szkoleniowe i nadzorcze: Audytorzy muszą rozumieć, jak działa sztuczna inteligencja, znać ograniczenia technologii i być w stanie ocenić zasadność wyników.

- Ustanowić mechanizm audytu dla sztucznej inteligencji: nie tylko dane finansowe, ale także procesy i modele sztucznej inteligencji muszą być „audytowane”, aby zapewnić obiektywność i przejrzystość.

- Przestrzeganie etyki zawodowej: Bez względu na to, jak bardzo rozwija się technologia, podstawową zasadą audytu pozostaje „niezależność, uczciwość i obiektywizm”.


Źródło: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Radość zwycięstwa

Radość zwycięstwa

80 lat narodu

80 lat narodu

piękna przyroda wyżyn

piękna przyroda wyżyn