
(Фото: LinkedIn)
Компания Deloitte, одна из «большой четвёрки» аудиторских компаний мира , обвиняется в использовании искусственного интеллекта (ИИ) для составления отчётов, содержащих ложную информацию. Этот инцидент не только подорвал репутацию компании, но и спровоцировал международную дискуссию об ответственном использовании ИИ в сфере, основанной на честности, точности и доверии.
«Падение» лидера
Согласно информации AP News (октябрь 2025 г.), компания Deloitte Australia согласилась возместить австралийскому правительству часть стоимости контракта в размере 440 000 австралийских долларов (что эквивалентно примерно 290 000 долларов США) после того, как обнаружила, что отчёт, отправленный в Министерство труда и трудовых отношений (DEWR), содержал несуществующие юридические ссылки и поддельные научные статьи. Внутренняя проверка Deloitte позднее подтвердила, что часть контента была сгенерирована инструментом Azure OpenAI — моделью искусственного интеллекта Microsoft.
Инцидент сразу же вызвал цепную реакцию, заставив экспертов и управляющие агентства одновременно предупредить: технологии развиваются быстрее, чем правовая база и возможности человеческого контроля. CFODive отметил, что это «тревожный звонок для всего сектора корпоративных финансов» из-за потенциальных рисков, связанных с участием машин в процессе, требующем абсолютной точности.
Фактически, Deloitte является одним из пионеров применения технологий искусственного интеллекта в процессе аудита. Группа инвестировала более 1 миллиарда долларов в цифровую трансформацию, стремясь использовать потенциал больших данных и машинного обучения для повышения эффективности и глубины анализа. По данным Financial News London, в Великобритании более 75% аудиторов Deloitte использовали внутренний чат-бот PairD, что в три раза больше, чем в предыдущем году.
ИИ помогает аудиторам обрабатывать огромные объёмы данных, извлекать информацию из тысяч страниц договоров, выявлять аномалии и экономить сотни часов работы. Однако инцидент в Deloitte Australia демонстрирует обратную сторону этого процесса: при отсутствии тщательного контроля за технологиями ИИ может создавать «фиктивный» контент — информацию, которая кажется правдоподобной, но на самом деле полностью ложна.

(Фото: Getty Images)
Согласно отчёту о расследовании, в 237-страничном отчёте Deloitte содержалась ссылка на решение федерального суда Австралии, которое так и не было опубликовано. Некоторые ссылки в приложении также не существовали. Только после тщательной проверки и опроса Deloitte государственным органом компания признала использование инструментов ИИ в процессе компиляции данных. Хотя компания утверждала, что «ИИ играл лишь вспомогательную роль», инцидент нанёс значительный ущерб репутации её бренда и поставил под сомнение прозрачность её рабочего процесса.
Проблема здесь не только в технической ошибке, но и в том, что затрагивает самые основы аудиторской профессии, основанной на социальном доверии. Когда одна из четырёх крупнейших аудиторских компаний мира допускает ошибку, связанную с ИИ, доверие общественности к независимости и этике всей отрасли оказывается под угрозой.
Это влияние становится ещё более серьёзным в контексте того, что ИИ становится всё более популярным инструментом в других аудиторских компаниях, таких как PwC, EY и KPMG. Согласно опросу Центра качества аудита (CAQ), более трети глобальных партнёров по аудиту заявили, что использовали или планируют использовать ИИ в процессе аудита. Это означает, что риск системных ошибок, если им не управлять должным образом, может распространиться на глобальный уровень.
Аудит в эпоху искусственного интеллекта: возможности и предупреждения
После этого шока аудиторская отрасль была вынуждена переосмыслить свой подход к переходу в эпоху искусственного интеллекта, где возможности и риски тесно переплетаются. После инцидента Deloitte оперативно представила «Trustworthy AI Framework» — систему рекомендаций по ответственному использованию искусственного интеллекта, основанную на пяти принципах: справедливости, прозрачности, объяснимости, ответственности и конфиденциальности. Компания также расширила свою глобальную аудиторскую платформу Omnia, интегрировав возможности GenAI для поддержки процесса анализа и составления отчётности. Deloitte подтвердила, что все результаты, полученные с помощью искусственного интеллекта, должны быть проверены и подтверждены экспертами-людьми перед публикацией.
Однако эксперты утверждают, что усилия Deloitte, хотя и необходимые, — лишь первый шаг на долгом пути к налаживанию отношений между людьми и технологиями в аудиторской отрасли. Эксперты Financial Times предупреждают, что многие компании «гонятся за ИИ», не выработав чётких механизмов контроля и оценки воздействия. ИИ экономит время, но в то же время стирает грань между работой человека и машины, особенно в задачах, требующих рассудительности и профессионального скептицизма, что свойственно аудиторам.
PwC, ещё один член «большой четвёрки», публично изменила свою программу обучения для новых сотрудников: вместо проведения базового аудита они будут учиться «мониторингу ИИ», анализу результатов и оценке технологических рисков. По данным Business Insider, компания считает, что «аудитор будущего сможет не только читать цифры, но и понимать, как машины думают».

(Фото: Рахул)
Тем временем регулирующие органы и профессиональные организации начинают рассматривать возможность выпуска новых стандартов для «аудита ИИ». Международный совет по стандартам аудита и подтверждения достоверности информации (IAASB) работает над дополнительными рекомендациями по использованию инструментов ИИ для сбора доказательств и составления отчётности. Некоторые эксперты предлагают создать отдельный стандарт аудита для обеспечения глобального единообразия.
Эти события свидетельствуют о том, что аудиторская отрасль вступает в период глубокой трансформации. Технологии невозможно полностью исключить, но их применение требует тщательного и строгого контроля. В противном случае риск потери контроля может привести к краху доверия к финансовой системе, поддерживавшегося веками, всего за несколько кликов.
С точки зрения возможностей, ИИ обещает беспрецедентные прорывы: возможность обрабатывать миллионы транзакций за короткое время, выявлять изощрённые случаи мошенничества, которые сложно обнаружить человеку, и открывать концепцию «непрерывного аудита» — мониторинга рисков в режиме реального времени. Deloitte, PwC, KPMG и EY ежегодно инвестируют сотни миллионов долларов в разработку собственных систем ИИ.
Однако возможности могут превратиться в реальную ценность только в сочетании с ответственностью. Урок Deloitte Australia показывает, что технологии могут изменить подход к работе, но не могут заменить этику и человеческий фактор. В мире аудита с использованием искусственного интеллекта доверие по-прежнему остаётся важнейшим активом.
Из случая Deloitte эксперты извлекли много важных уроков:
- Абсолютная прозрачность в использовании ИИ: любой контент, созданный или поддерживаемый инструментами ИИ, должен быть четко раскрыт клиентам и регулирующим органам.
- Улучшить навыки обучения и надзора: аудиторы должны понимать, как работает ИИ, знать ограничения этой технологии и уметь оценивать обоснованность результатов.
- Создать механизм аудита для ИИ: необходимо проверять не только финансовые данные, но и «повторно проверять» процессы и модели ИИ, чтобы гарантировать объективность и прозрачность.
- Соблюдайте профессиональную этику: независимо от уровня развития технологий основными принципами аудита остаются «независимость, честность и объективность».
Источник: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Комментарий (0)