Após a Deloitte ter que reeditar um relatório de US$ 440.000 para o governo australiano devido a um erro grave causado por inteligência artificial (IA), concorrentes do grupo "Big 4", incluindo EY, KPMG, PwC e Boston Consulting Group (BCG), rapidamente se manifestaram para afirmar que possuem processos de controle rigorosos para evitar erros semelhantes.

A Deloitte agora enfrenta forte pressão depois que o relatório original continha três referências fictícias e uma citação fabricada de uma decisão de um Tribunal Federal. A versão revisada remove mais de uma dúzia de citações errôneas e corrige a bibliografia, embora as recomendações permaneçam as mesmas.

O caso atraiu atenção internacional, tornando-se um exemplo típico de "alucinação" – quando a IA "fabrica" ​​informações como se fossem reais. A opinião pública e especialistas exigem que o governo do primeiro-ministro Anthony Albanese obrigue os consultores a divulgar quando utilizam IA em contratos com o Estado.

As quatro grandes empresas competem para provar que "usam a IA de forma responsável"

A EY insiste que todos os resultados gerados por IA devem ser minuciosamente revisados ​​pelos funcionários antes de serem utilizados. A KPMG afirma ter uma "Estrutura de Confiança em IA" e um "Registro de IA" público das ferramentas que utiliza em seus serviços, inclusive com clientes governamentais.

A BCG enfatizou que todos os produtos de consultoria passam por uma "rigorosa avaliação da liderança", enquanto a PwC destacou que adere ao princípio de "humanos no circuito" — os humanos são sempre os responsáveis ​​finais por produtos que envolvem IA.

A Deloitte e a McKinsey, duas empresas que frequentemente se vangloriam de suas capacidades em IA, recusaram-se a comentar. A Deloitte concordou em reembolsar parte dos custos ao Departamento Australiano de Emprego e Relações Industriais.

Deloitte África
A Deloitte se viu envolvida em um escândalo relacionado à "fabricação de informações" por inteligência artificial na elaboração de relatórios. Foto: AFR

Em uma audiência no Senado, Gordon de Brouwer, chefe do Serviço Público Australiano, enfatizou: “A IA não é responsável pelo seu trabalho. Você é o responsável.”

A senadora Barbara Pocock, do Partido Verde, pediu ao governo que obrigue as empresas contratadas a divulgar publicamente o uso de IA e a verificar todo o conteúdo gerado por IA. “Isso não é apenas negligência artificial, é negligência deliberada… O trabalho da Deloitte não está à altura de uma prova de primeiro ano de universidade… Se as empresas contratadas para realizar trabalhos para o governo continuarem terceirizando o trabalho de IA, é preciso haver verificações. Não é pedir demais”, disse ela.

A Sra. Pocock apresentou um projeto de lei para proibir, por cinco anos, que empreiteiras consideradas culpadas de comportamento antiético participem de contratos governamentais e exigiu o reembolso integral da Deloitte.

A IA apoia, e não substitui, os humanos.

Empresas de consultoria menores também se apressaram em tranquilizar seus clientes. David Gumley, CEO da ADAPTOVATE, afirmou que estavam usando IA para melhorar a eficiência, mas que ela jamais substituiria a expertise humana.

Outra consultora, Lisa Carlin – que dirige a empresa individual The Turbochargers – afirmou que as empresas de consultoria precisam ter uma política pública sobre o uso de IA, explicando como a tecnologia é aplicada em seu trabalho, mas sem necessariamente divulgar detalhes sobre a tecnologia utilizada.

“A IA agora faz parte de ferramentas padrão de negócios, como o Excel, mas a empresa ainda tem total responsabilidade pela gestão de riscos”, disse Carlin. “A transparência deve estar presente nas políticas da empresa, não em todos os relatórios, porque o que os clientes precisam é ter confiança de que a empresa possui controles robustos, e não um aviso em cada página.”

Carlin assessora clientes corporativos em estratégia e implementação de IA e enfatiza que cada detalhe em um relatório, independentemente de como foi criado, deve ser cuidadosamente verificado antes de ser enviado ao cliente.

“As empresas precisam ter seus próprios processos de garantia de qualidade para IA e uma avaliação de riscos clara”, acrescentou ela. “Não há desculpa para ‘gerado por IA’. Os consultores precisam ser responsabilizados pelo seu trabalho, assim como seriam por um estagiário.”

(De acordo com a AFR)

Fonte: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html