Nadat Deloitte een rapport van $ 440.000 opnieuw moest uitbrengen aan de Australische overheid vanwege een ernstige fout van kunstmatige intelligentie (AI), lieten concurrenten uit de "Big 4"-groep, waaronder EY, KPMG, PwC en Boston Consulting Group (BCG), snel van zich horen en bevestigden dat zij strikte controleprocessen hanteren om soortgelijke fouten te voorkomen.

Deloitte staat nu onder grote druk nadat het oorspronkelijke rapport drie fictieve referenties en een verzonnen citaat uit een uitspraak van een federale rechtbank bevatte. De herziene versie verwijdert meer dan een dozijn foutieve citaten en corrigeert de bibliografie, hoewel de aanbevelingen ongewijzigd blijven.

De zaak heeft internationale aandacht getrokken en is een typisch voorbeeld geworden van "hallucinatie" – wanneer AI informatie "verzint" alsof het echt is. De publieke opinie en experts eisen dat de regering van premier Anthony Albanese consultants dwingt om openbaar te maken wanneer zij AI gebruiken in overheidsopdrachten.

Big 4 strijdt om te bewijzen dat ze 'AI verantwoord gebruiken'

EY benadrukt dat alle door AI gegenereerde resultaten grondig door medewerkers moeten worden beoordeeld voordat ze worden gebruikt. KPMG zegt dat het een "AI Trust Framework" en een openbaar "AI-register" heeft van de tools die het in zijn dienstverlening gebruikt, ook voor overheidsklanten.

BCG benadrukte dat alle adviesproducten een strenge controle van het leiderschap ondergaan, terwijl PwC benadrukte dat het zich houdt aan het principe van de 'mens in de lus': mensen zijn altijd uiteindelijk verantwoordelijk voor producten waarbij AI betrokken is.

Deloitte en McKinsey, twee bedrijven die vaak opscheppen over hun AI-mogelijkheden, weigerden commentaar te geven. Deloitte heeft ermee ingestemd een deel van de kosten te vergoeden aan het Australische ministerie van Werkgelegenheid en Arbeidsverhoudingen.

deloitte afr
Deloitte raakte verwikkeld in een schandaal rond AI die "informatie verzint" bij het schrijven van rapporten. Foto: AFR

Tijdens een hoorzitting in de Senaat benadrukte Gordon de Brouwer, hoofd van de Australische overheidsdienst: "AI is niet verantwoordelijk voor uw werk. U bent verantwoordelijk."

Senator Barbara Pocock van de Groenen riep de overheid op om aannemers te dwingen hun gebruik van AI openbaar te maken en alle door AI gegenereerde content te verifiëren. "Dit is niet zomaar kunstmatige nalatigheid, het is opzettelijke nalatigheid... Het werk van Deloitte voldoet niet aan de normen van een eerstejaars universitair examen... Als aannemers die worden ingehuurd voor overheidswerk AI-werk blijven uitbesteden, moeten er controles komen. Dat is niet te veel gevraagd," zei ze.

Mevrouw Pocock heeft wetgeving ingediend om aannemers die zich onethisch hebben gedragen, gedurende vijf jaar te weren van overheidscontracten. Ook heeft ze Deloitte opgeroepen om hun volledige geld terug te krijgen.

AI ondersteunt mensen, maar vervangt ze niet

Ook kleinere adviesbureaus stelden klanten gerust. David Gumley, CEO van ADAPTOVATE, zei dat ze AI gebruiken om de efficiëntie te verbeteren, maar dat het nooit de menselijke expertise zal vervangen.

Een andere consultant, Lisa Carlin – die het eenmansbedrijf The Turbochargers runt – zei dat consultancybureaus een openbaar beleid moeten hebben over het gebruik van AI. Daarin moeten ze uitleggen hoe de technologie in hun werk wordt toegepast, maar hoeven ze niet per se details over de gebruikte technologie openbaar te maken.

"AI maakt nu deel uit van standaard bedrijfstools, zoals Excel, maar het bedrijf draagt ​​nog steeds de volledige verantwoordelijkheid voor het risicobeheer", aldus Carlin. "Transparantie moet op beleidsniveau plaatsvinden, niet in elk rapport. Klanten hebben namelijk behoefte aan het vertrouwen dat het bedrijf sterke controles heeft, niet aan een waarschuwing op elke pagina."

Carlin adviseert zakelijke klanten over AI-strategie en -implementatie. Ze benadrukt dat elk detail in een rapport, ongeacht hoe het is opgesteld, zorgvuldig moet worden gecontroleerd voordat het naar een klant wordt gestuurd.

"Bedrijven moeten hun eigen kwaliteitsborgingsprocessen voor AI en een duidelijke risicobeoordeling hebben", voegde ze eraan toe. "Er is geen excuus voor 'AI-gegenereerd'. Consultants moeten verantwoordelijk zijn voor hun werk, net zoals ze dat voor een stagiair zouden doen."

(Volgens AFR)

Bron: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html