Luego de que Deloitte tuvo que volver a emitir un informe de 440.000 dólares al gobierno australiano debido a un grave error de inteligencia artificial (IA), los competidores del grupo “Big 4”, entre los que se encuentran EY, KPMG, PwC y Boston Consulting Group (BCG), rápidamente alzaron la voz para afirmar que cuentan con estrictos procesos de control para evitar errores similares.
Deloitte se enfrenta ahora a una intensa presión tras incluir el informe original tres referencias ficticias y una cita inventada de una sentencia del Tribunal Federal. La versión revisada elimina más de una docena de citas erróneas y corrige la bibliografía, aunque las recomendaciones se mantienen.
El caso ha atraído la atención internacional, convirtiéndose en un ejemplo típico de "alucinación": cuando la IA "fabrica" información como si fuera real. La opinión pública y los expertos exigen que el gobierno del primer ministro Anthony Albanese obligue a los consultores a revelar cuándo utilizan IA en contratos estatales.
Las Cuatro Grandes compiten para demostrar que "utilizan la IA de forma responsable"
EY insiste en que todos los resultados generados por IA deben ser revisados exhaustivamente por los empleados antes de su uso. KPMG afirma contar con un "Marco de Confianza en IA" y un "Registro de IA" público de las herramientas que utiliza en sus servicios, incluso con clientes gubernamentales.
BCG enfatizó que todos los productos de consultoría se someten a una “rigurosa investigación de liderazgo”, mientras que PwC enfatizó que se adhiere al principio de “humanos en el circuito”: los humanos siempre son los responsables últimos de los productos que involucran IA.
Deloitte y McKinsey, dos firmas que suelen presumir de sus capacidades de IA, declinaron hacer comentarios. Deloitte ha acordado reembolsar parte de los costes al Departamento de Empleo y Relaciones Industriales de Australia.

En una audiencia en el Senado, Gordon de Brouwer, director del Servicio Público Australiano, enfatizó: «La IA no es responsable de su trabajo. Usted es responsable».
La senadora del Partido Verde, Barbara Pocock, instó al gobierno a obligar a los contratistas a revelar públicamente su uso de IA y a verificar todo el contenido generado por ella. «Esto no es solo negligencia artificial, sino negligencia deliberada… El trabajo de Deloitte no está a la altura de un examen de primer año de universidad… Si los contratistas contratados para realizar trabajos gubernamentales van a seguir externalizando el trabajo de IA, es necesario que haya controles. No es mucho pedir», afirmó.
La Sra. Pocock presentó una legislación para prohibir que los contratistas que hayan incurrido en un comportamiento poco ético firmen contratos gubernamentales durante cinco años y solicitó reembolsos completos a Deloitte.
La IA apoya a los humanos, no los reemplaza
Las consultoras más pequeñas también se apresuraron a tranquilizar a sus clientes. David Gumley, director ejecutivo de ADAPTOVATE, afirmó que estaban utilizando la IA para mejorar la eficiencia, pero que esta nunca reemplazaría la experiencia humana.
Otra consultora, Lisa Carlin, que dirige la firma unipersonal The Turbochargers, dijo que las empresas consultoras necesitan tener una política pública sobre el uso de IA, que explique cómo se aplica la tecnología en su trabajo, pero no necesariamente revele detalles de la tecnología utilizada.
“La IA ya forma parte de herramientas empresariales estándar, como Excel, pero la empresa sigue teniendo plena responsabilidad en la gestión de riesgos”, afirmó Carlin. “La transparencia debe estar presente en las políticas, no en todos los informes, porque lo que los clientes necesitan es la confianza de que la empresa cuenta con controles sólidos, no una advertencia en cada página”.
Carlin asesora a clientes corporativos sobre estrategias e implementación de IA y enfatiza que cada detalle de un informe, independientemente de cómo se haya creado, debe examinarse cuidadosamente antes de enviarlo a un cliente.
“Las empresas necesitan contar con sus propios procesos de control de calidad para la IA y una evaluación de riesgos clara”, añadió. “No hay excusa para que la IA esté basada en datos generados. Los consultores deben rendir cuentas de su trabajo, al igual que lo harían con un becario”.
(Según AFR)
Fuente: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
Kommentar (0)