Vietnam.vn - Nền tảng quảng bá Việt Nam

Branża audytorska odczuwa skutki sztucznej inteligencji.

VTV.vn - Światowa branża audytorska właśnie przeżyła bezprecedensowy szok.

Đài truyền hình Việt NamĐài truyền hình Việt Nam05/11/2025

(Ảnh: Linkedln)

(Zdjęcie: LinkedIn)

Deloitte – jedna z czterech wiodących firm audytorskich na świecie – została oskarżona o wykorzystywanie sztucznej inteligencji (AI) do tworzenia raportów zawierających fałszywe informacje. Incydent ten nie tylko zachwiał reputacją firmy, ale także zapoczątkował globalną debatę na temat odpowiedzialnego wykorzystania AI w branży opartej na uczciwości, dokładności i zaufaniu.

„Upadek” przywódcy

Według AP News (październik 2025 r.), australijski oddział Deloitte zgodził się zwrócić australijskiemu rządowi część kontraktu o wartości 440 000 AUD (około 290 000 USD) po odkryciu, że raport złożony do Departamentu Pracy i Stosunków Zatrudnienia (DEWR) zawierał nieistniejące cytaty prawne i sfałszowane dokumenty akademickie. Późniejsza wewnętrzna kontrola przeprowadzona przez Deloitte potwierdziła, że ​​część treści została wygenerowana przez narzędzie sztucznej inteligencji „Azure OpenAI” firmy Microsoft.

Incydent natychmiast wywołał reakcję łańcuchową, co skłoniło ekspertów i organy regulacyjne do wydania ostrzeżeń, że technologia rozwija się szybciej niż ramy prawne i możliwości nadzoru ze strony człowieka. CFODive stwierdził, że jest to „sygnał alarmowy dla całego sektora finansów korporacyjnych”, podkreślając potencjalne ryzyko związane z umożliwieniem maszynom udziału w procesach wymagających absolutnej precyzji.

Deloitte jest jednym z pionierów w stosowaniu technologii sztucznej inteligencji (AI) w procesach audytu. Firma zainwestowała ponad miliard dolarów w transformację cyfrową, dążąc do wykorzystania potencjału dużych zbiorów danych i uczenia maszynowego w celu zwiększenia efektywności i głębi analitycznej. Według Financial News London, w Wielkiej Brytanii ponad 75% pracowników Deloitte zajmujących się audytem korzystało z wewnętrznego chatbota o nazwie „PairD”, co stanowi trzykrotny wzrost w porównaniu z rokiem poprzednim.

Sztuczna inteligencja pomaga audytorom przetwarzać ogromne ilości danych, wyodrębniać informacje z tysięcy stron umów, wykrywać anomalie i oszczędzać setki godzin pracy. Jednak incydent w Deloitte Australia pokazuje wady tego procesu: gdy technologia nie jest ściśle monitorowana, sztuczna inteligencja może tworzyć „fikcyjne” treści – informacje, które wydają się wiarygodne, ale w rzeczywistości są całkowicie fałszywe.

Ngành kiểm toán chấn động vì AI - Ảnh 1.

(Zdjęcie: Getty Images)

Według raportu z dochodzenia, 237-stronicowy raport Deloitte powoływał się na orzeczenie australijskiego sądu federalnego, które w rzeczywistości nigdy nie nastąpiło. Kilka odniesień w załączniku również nie istniało. Dopiero po dogłębnej analizie i przesłuchaniu przez agencje rządowe Deloitte przyznało, że w procesie kompilacji wykorzystano sztuczną inteligencję. Chociaż firma utrzymywała, że ​​„sztuczna inteligencja odegrała jedynie rolę pomocniczą”, incydent ten znacząco zaszkodził reputacji marki i podważył transparentność procesów roboczych.

Problem nie dotyczy wyłącznie błędu technicznego; dotyka on samych korzeni zawodu audytora – opartego na zaufaniu społecznym. Kiedy jedna z czterech największych firm audytorskich na świecie popełnia błąd związany ze sztuczną inteligencją, zaufanie społeczne do niezależności i etyki zawodowej całej branży zostaje zachwiane.

Wpływ ten jest jeszcze poważniejszy, biorąc pod uwagę, że sztuczna inteligencja staje się powszechnym narzędziem w innych firmach audytorskich, takich jak PwC, EY i KPMG. Według badania przeprowadzonego przez Centrum Jakości Audytu (CAQ), ponad jedna trzecia globalnych partnerów audytorskich stwierdziła, że ​​korzystała lub planuje korzystać ze sztucznej inteligencji w swoich procesach audytu. Oznacza to, że ryzyko błędów systemowych, jeśli nie będzie odpowiednio zarządzane, może rozprzestrzenić się na cały świat.

Audyt czasu AI: szanse i ostrzeżenia

Po tym incydencie branża audytorska została zmuszona do ponownej oceny swojego podejścia do ery sztucznej inteligencji (AI), w której szanse i zagrożenia są ze sobą powiązane. Po tym wydarzeniu Deloitte szybko ogłosiło „Rama Zaufanej Sztucznej Inteligencji” (Trustworthy AI Framework) – system wytycznych dotyczących odpowiedzialnego korzystania ze sztucznej inteligencji (AI), koncentrujący się na pięciu zasadach: uczciwości, przejrzystości, wyjaśnialności, rozliczalności i poufności. Firma rozszerzyła również swoją globalną platformę audytorską Omnia, integrując funkcje „GenAI” w celu wsparcia procesów analizy i raportowania. Deloitte potwierdziło, że wszystkie wyniki generowane przez sztuczną inteligencję muszą zostać sprawdzone i zweryfikowane przez ekspertów przed ich opublikowaniem.

Eksperci uważają jednak, że działania Deloitte – choć konieczne – to dopiero pierwszy krok w długiej drodze do ujednolicenia relacji między ludźmi a technologią w branży audytorskiej. Eksperci z Financial Times ostrzegają, że wiele firm „ściga się ze sztuczną inteligencją” bez ustanowienia jasnych mechanizmów kontroli i oceny jej wpływu. Sztuczna inteligencja oszczędza czas, ale jednocześnie zaciera granice między pracą człowieka a maszyn – zwłaszcza w zadaniach wymagających osądu i profesjonalnego sceptycyzmu, które są nieodłączną cechą pracy audytorów.

PwC – kolejny członek Wielkiej Czwórki – publicznie zmodyfikował swój program szkoleniowy dla nowych pracowników: zamiast wykonywania podstawowych zadań audytorskich, nauczą się oni „monitorowania sztucznej inteligencji”, analizowania wyników i oceny ryzyka technologicznego. Według Business Insider, firma uważa, że ​​„przyszli audytorzy nie będą już umieli tylko czytać liczby, ale będą musieli zrozumieć, jak myślą maszyny”.

Ngành kiểm toán chấn động vì AI - Ảnh 2.

(Zdjęcie: Rahul)

Tymczasem organy regulacyjne i organizacje zawodowe zaczynają rozważać wydanie nowych standardów dla „audytu opartego na sztucznej inteligencji”. Międzynarodowa Rada Standardów Audytu i Zapewnienia Jakości (IAASB) analizuje możliwość dodania wytycznych dotyczących wykorzystania narzędzi sztucznej inteligencji w gromadzeniu dowodów i raportowaniu. Niektórzy eksperci sugerują ustanowienie odrębnego standardu audytu w celu zapewnienia globalnej spójności.

Te wydarzenia wskazują, że branża audytorska wkracza w okres głębokiej transformacji. Technologii nie da się wyeliminować, ale jej stosowanie wymaga ostrożności i ścisłej kontroli. W przeciwnym razie ryzyko utraty kontroli może doprowadzić do załamania się zaufania do systemu finansowego – podtrzymywanego od wieków – zaledwie kilkoma kliknięciami.

Z perspektywy nowych możliwości, sztuczna inteligencja obiecuje bezprecedensowy przełom: możliwość przetwarzania milionów transakcji w krótkim czasie, wykrywania wyrafinowanych oszustw, trudnych do wykrycia przez ludzi, oraz wprowadzenie koncepcji „ciągłego audytu” – monitorowania ryzyka w czasie rzeczywistym. Deloitte, PwC, KPMG i EY inwestują rocznie setki milionów dolarów w rozwój własnych systemów sztucznej inteligencji.

Jednak szanse mogą przekształcić się w realną wartość tylko wtedy, gdy towarzyszy im odpowiedzialność. Lekcja z Deloitte Australia pokazuje, że technologia może zmienić nasz sposób pracy, ale nie zastąpi ludzkiej etyki i weryfikacji. W świecie audytów wspomaganych przez sztuczną inteligencję, zaufanie pozostaje największym atutem.

Eksperci wyciągnęli kilka ważnych wniosków ze sprawy Deloitte:

- Pełna przejrzystość w korzystaniu ze sztucznej inteligencji: Wszelkie treści tworzone lub obsługiwane przez narzędzia sztucznej inteligencji muszą być jasno ujawniane klientom i organom regulacyjnym.

- Lepsze umiejętności szkoleniowe i nadzorcze: Audytorzy muszą rozumieć, jak działa sztuczna inteligencja, znać ograniczenia technologii i być w stanie ocenić zasadność wyników.

- Ustanowić mechanizm audytu dla sztucznej inteligencji: nie tylko dane finansowe, ale także procesy i modele sztucznej inteligencji muszą być „audytowane”, aby zapewnić obiektywność i przejrzystość.

- Przestrzeganie etyki zawodowej: Bez względu na to, jak bardzo rozwija się technologia, podstawową zasadą audytu pozostaje „niezależność, uczciwość i obiektywizm”.


Źródło: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Wieża Cham

Wieża Cham

Parasailing – sport wodny przyciągający turystów.

Parasailing – sport wodny przyciągający turystów.

Kształcenie zawodowe dla dzieci niepełnosprawnych.

Kształcenie zawodowe dla dzieci niepełnosprawnych.