Depois que a Deloitte teve que reemitir um relatório de US$ 440.000 ao governo australiano devido a um erro grave de inteligência artificial (IA), concorrentes do grupo "Big 4", incluindo EY, KPMG, PwC e Boston Consulting Group (BCG), rapidamente se manifestaram para afirmar que têm processos de controle rigorosos para evitar erros semelhantes.

A Deloitte agora enfrenta intensa pressão após o relatório original conter três referências fictícias e uma citação fabricada de uma decisão do Tribunal Federal. A versão revisada remove mais de uma dúzia de citações errôneas e corrige a bibliografia, embora as recomendações permaneçam as mesmas.

O caso atraiu a atenção internacional, tornando-se um exemplo típico de "alucinação" – quando a IA "fabrica" ​​informações como se fossem reais. A opinião pública e especialistas exigem que o governo do primeiro-ministro Anthony Albanese obrigue consultores a revelar quando utilizam IA em contratos estatais.

As 4 grandes empresas correm para provar que "usam a IA de forma responsável"

A EY insiste que todos os resultados gerados por IA devem ser cuidadosamente revisados ​​pelos funcionários antes de serem utilizados. A KPMG afirma possuir uma "Estrutura de Confiança em IA" e um "Registro de IA" público com as ferramentas que utiliza em seus serviços, inclusive com clientes governamentais.

O BCG enfatizou que todos os produtos de consultoria passam por uma "rigorosa verificação de liderança", enquanto a PwC enfatizou que adere ao princípio de "humanos no circuito" — os humanos são sempre os responsáveis ​​finais pelos produtos que envolvem IA.

A Deloitte e a McKinsey, duas empresas que frequentemente se gabam de suas capacidades de IA, não quiseram comentar. A Deloitte concordou em reembolsar parte dos custos ao Departamento Australiano de Emprego e Relações Industriais.

Deloitte AFR
Deloitte envolvida em um escândalo sobre IA "fabricando informações" ao elaborar relatórios. Foto: AFR

Em uma audiência no Senado, Gordon de Brouwer, chefe do Serviço Público Australiano, enfatizou: “A IA não é responsável pelo seu trabalho. Você é responsável.”

A senadora do Partido Verde, Barbara Pocock, pediu ao governo que obrigue os contratados a divulgar publicamente o uso de IA e a verificar todo o conteúdo gerado por ela. "Isso não é apenas negligência artificial, é negligência deliberada... O trabalho da Deloitte não está à altura de um exame universitário de primeiro ano... Se os contratados para realizar trabalhos governamentais continuarem a terceirizar o trabalho de IA, é preciso que haja verificações. Não é pedir muito", disse ela.

A Sra. Pocock apresentou uma legislação para proibir contratados que tenham se envolvido em comportamento antiético de contratar com o governo por cinco anos e pediu reembolso integral da Deloitte.

A IA apoia, não substitui, os humanos

Empresas de consultoria menores também foram rápidas em tranquilizar os clientes. David Gumley, CEO da ADAPTOVATE, disse que eles estavam usando IA para melhorar a eficiência, mas que ela nunca substituiria a expertise humana.

Outra consultora, Lisa Carlin — que dirige a empresa individual The Turbochargers — disse que as empresas de consultoria precisam ter uma política pública sobre o uso de IA, explicando como a tecnologia é aplicada em seu trabalho, mas não necessariamente divulgando detalhes da tecnologia usada.

“A IA agora faz parte de ferramentas empresariais padrão, como o Excel, mas a empresa ainda tem total responsabilidade pela gestão de riscos”, disse Carlin. “A transparência deve estar no nível das políticas, não em todos os relatórios, porque o que os clientes precisam é da confiança de que a empresa possui controles rigorosos, não de uma linha de alerta em cada página.”

Carlin aconselha clientes corporativos sobre estratégia e implementação de IA e enfatiza que cada detalhe em um relatório, independentemente de como foi criado, deve ser cuidadosamente verificado antes de ser enviado a um cliente.

“As empresas precisam ter seus próprios processos de garantia de qualidade para IA e uma avaliação de risco clara”, acrescentou. “Não há desculpa para ‘gerado por IA’. Os consultores precisam ser responsabilizados por seu trabalho, assim como fariam com um estagiário.”

(De acordo com a AFR)

Fonte: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html