После того, как Deloitte пришлось повторно предоставить австралийскому правительству отчет на сумму 440 000 долларов из-за серьезной ошибки искусственного интеллекта (ИИ), конкуренты из группы «Большой четверки», включая EY, KPMG, PwC и Boston Consulting Group (BCG), быстро выступили с заявлением, заявив, что у них действуют строгие процессы контроля, позволяющие избежать подобных ошибок.
Компания Deloitte столкнулась с серьёзным давлением после того, как в первоначальном отчёте содержались три фиктивные ссылки и сфабрикованная цитата из решения Федерального суда. В пересмотренной версии удалено более десятка ошибочных цитат и исправлена библиография, хотя рекомендации остались прежними.
Этот случай привлёк международное внимание, став типичным примером «галлюцинации» — когда ИИ «фабрикует» информацию, выдавая её за реальную. Общественное мнение и эксперты требуют от правительства премьер-министра Энтони Албанезе обязать консультантов раскрывать информацию об использовании ИИ в государственных контрактах.
«Большая четверка» стремится доказать, что они «ответственно используют ИИ»
Компания EY настаивает на том, что все результаты, полученные с помощью ИИ, должны быть тщательно проверены сотрудниками перед использованием. KPMG заявляет, что у неё есть «Рамка доверия к ИИ» и публичный «Реестр ИИ-инструментов», которые она использует в своих услугах, в том числе при работе с государственными клиентами.
В BCG подчеркнули, что все консалтинговые продукты проходят «строгую проверку руководства», а в PwC подчеркнули, что придерживаются принципа «человек в петле» — люди всегда несут окончательную ответственность за продукты с использованием ИИ.
Компании Deloitte и McKinsey, которые часто хвастаются своими возможностями в области искусственного интеллекта, отказались от комментариев. Deloitte согласилась возместить часть расходов Министерству занятости и трудовых отношений Австралии.

На слушаниях в Сенате Гордон де Брауэр, глава Австралийской государственной службы, подчеркнул: «Искусственный интеллект не несёт ответственности за вашу работу. Ответственность несёте вы».
Сенатор от Зелёной партии Барбара Покок призвала правительство обязать подрядчиков публично раскрывать информацию об использовании ИИ и проверять весь контент, создаваемый с помощью ИИ. «Это не просто искусственная халатность, это преднамеренная халатность… Работа Deloitte не соответствует уровню экзамена для первого курса университета… Если подрядчики, нанятые для выполнения государственных заказов, собираются продолжать передавать на аутсорсинг работу с ИИ, необходимо проводить проверки. Это не слишком много», — сказала она.
Г-жа Покок внесла законопроект, запрещающий подрядчикам, уличенным в неэтичном поведении, получать государственные контракты сроком на пять лет, и призвала Deloitte возместить им все расходы.
ИИ поддерживает людей, а не заменяет их
Небольшие консалтинговые фирмы также поспешили успокоить клиентов. Дэвид Гамли, генеральный директор ADAPTOVATE, заявил, что они используют ИИ для повышения эффективности, но он никогда не заменит человеческий опыт.
Другой консультант, Лиза Карлин, которая руководит фирмой The Turbochargers, состоящей из одного человека, заявила, что консалтинговым фирмам необходимо иметь публичную политику в отношении использования ИИ, объясняющую, как эта технология применяется в их работе, но не обязательно раскрывающую подробности используемой технологии.
«ИИ теперь входит в стандартные бизнес-инструменты, такие как Excel, но компания по-прежнему несёт полную ответственность за управление рисками», — сказал Карлин. «Прозрачность должна быть на уровне политики, а не в каждом отчёте, поскольку клиентам нужна уверенность в том, что компания использует надёжные механизмы контроля, а не предупреждающие строки на каждой странице».
Карлин консультирует корпоративных клиентов по вопросам стратегии и внедрения ИИ и подчеркивает, что каждая деталь отчета, независимо от того, как он был создан, должна быть тщательно проверена перед отправкой клиенту.
«Компаниям необходимо иметь собственные процессы обеспечения качества для ИИ и чёткую оценку рисков», — добавила она. «Нет оправданий для „создания ИИ“. Консультанты должны нести ответственность за свою работу, как и за стажёра».
(По данным АФР)
Источник: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
Комментарий (0)