Etter at Deloitte måtte sende ut en rapport på 440 000 dollar til den australske regjeringen på nytt på grunn av en alvorlig feil fra kunstig intelligens (KI), tok konkurrenter i «Big 4»-gruppen, inkludert EY, KPMG, PwC og Boston Consulting Group (BCG), raskt til orde for å bekrefte at de har strenge kontrollprosesser for å unngå lignende feil.
Deloitte står nå under intenst press etter at den opprinnelige rapporten inneholdt tre fiktive referanser og et fabrikkert sitat fra en kjennelse fra en føderal domstol. Den reviderte versjonen fjerner mer enn et dusin feilaktige sitater og korrigerer bibliografien, selv om anbefalingene forblir de samme.
Saken har vakt internasjonal oppmerksomhet og blitt et typisk eksempel på «hallusinasjon» – når KI «fabrikkerer» informasjon som om den var ekte. Den offentlige opinionen og eksperter krever at statsminister Anthony Albaneses regjering tvinger konsulenter til å opplyse om når de bruker KI i statlige kontrakter.
De fire store kjemper om å bevise at de «bruker AI ansvarlig»
EY insisterer på at alle AI-genererte resultater må gjennomgås grundig av ansatte før de brukes. KPMG sier at de har et «AI Trust Framework» og et offentlig «AI-register» med verktøy de bruker i sine tjenester, inkludert med offentlige kunder.
BCG understreket at alle konsulentprodukter gjennomgår «grundig ledervurdering», mens PwC understreket at de følger prinsippet om «mennesker i loopen» – mennesker er alltid til syvende og sist ansvarlige for produkter som involverer AI.
Deloitte og McKinsey, to firmaer som ofte skryter av sine AI-evner, nektet å kommentere. Deloitte har gått med på å refundere noen av kostnadene til det australske departementet for arbeidsforhold og industrielle relasjoner.

På en høring i Senatet understreket Gordon de Brouwer, leder for den australske offentlige tjenesten: «KI er ikke ansvarlig for arbeidet ditt. Du er ansvarlig.»
Senator Barbara Pocock fra De Grønne oppfordret regjeringen til å tvinge entreprenører til å offentliggjøre sin bruk av AI og verifisere alt AI-generert innhold. «Dette er ikke bare kunstig uaktsomhet, det er bevisst uaktsomhet ... Deloittes arbeid er ikke på nivå med en førsteårseksamen på universitetet ... Hvis entreprenører som er ansatt for å gjøre offentlig arbeid skal fortsette å outsource AI-arbeid, må det være kontroller. Det er ikke for mye å be om», sa hun.
Fru Pocock har fremmet lovgivning som utestenger entreprenører som har oppført seg uetisk fra offentlige kontrakter i fem år, og har krevd full refusjon fra Deloitte.
AI støtter, ikke erstatter, mennesker
Mindre konsulentfirmaer var også raske til å berolige kundene. David Gumley, administrerende direktør i ADAPTOVATE, sa at de brukte AI for å forbedre effektiviteten, men at det aldri ville erstatte menneskelig ekspertise.
En annen konsulent, Lisa Carlin – som driver enkeltmannsfirmaet The Turbochargers – sa at konsulentfirmaer må ha en offentlig policy for bruk av AI, som forklarer hvordan teknologien brukes i arbeidet deres, men ikke nødvendigvis avslører detaljer om teknologien som brukes.
«KI er nå en del av standard forretningsverktøy, som Excel, men selskapet har fortsatt fullt ansvar for å håndtere risiko», sa Carlin. «Åpenhet bør være på policynivå, ikke i alle rapporter, fordi det kundene trenger er tillit til at selskapet har sterke kontroller, ikke en advarselslinje på hver side.»
Carlin gir bedriftskunder råd om AI-strategi og implementering, og hun understreker at hver eneste detalj i en rapport, uavhengig av hvordan den ble laget, bør vurderes nøye før den sendes til en klient.
«Bedrifter må ha sine egne kvalitetssikringsprosesser for AI og en tydelig risikovurdering», la hun til. «Det finnes ingen unnskyldning for «AI-generert». Konsulenter må være ansvarlige for arbeidet sitt, akkurat som de ville gjort for en praktikant.»
(Ifølge AFR)
Kilde: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
Kommentar (0)