Miután a Deloitte-nak újra ki kellett adnia egy 440 000 dolláros jelentést az ausztrál kormánynak a mesterséges intelligencia (MI) súlyos hibája miatt, a „Big 4” csoportba tartozó versenytársak, köztük az EY, a KPMG, a PwC és a Boston Consulting Group (BCG), gyorsan felszólaltak, és megerősítették, hogy szigorú ellenőrzési folyamatokkal rendelkeznek a hasonló hibák elkerülése érdekében.

A Deloitte-ra most intenzív nyomás nehezedik, miután az eredeti jelentés három fiktív hivatkozást és egy kitalált idézetet tartalmazott egy szövetségi bírósági ítéletből. A felülvizsgált változat több mint egy tucat hibás idézetet eltávolított és javította a bibliográfiát, bár az ajánlások változatlanok maradtak.

Az eset nemzetközi figyelmet keltett, és a „hallucináció” tipikus példájává vált – amikor a mesterséges intelligencia „fabrikál” információkat, mintha azok valóságosak lennének. A közvélemény és a szakértők azt követelik, hogy Anthony Albanese miniszterelnök kormánya kényszerítse a tanácsadókat annak nyilvánosságra hozatalára, amikor mesterséges intelligenciát használnak állami szerződésekben.

A nagy négyes versenyt fut, hogy bebizonyítsa: „felelősségteljesen használja a mesterséges intelligenciát”

Az EY ragaszkodik ahhoz, hogy az alkalmazottaknak minden mesterséges intelligencia által generált eredményt alaposan felül kell vizsgálniuk felhasználás előtt. A KPMG azt állítja, hogy rendelkezik egy „AI Trust Framework”-el és egy nyilvános „AI-nyilvántartással” a szolgáltatásaiban, többek között a kormányzati ügyfeleknél használt eszközökről.

A BCG hangsúlyozta, hogy minden tanácsadási termék „szigorú vezetői átvilágításon” esik át, míg a PwC kiemelte, hogy az „emberek a folyamatban” elvet követi – a mesterséges intelligenciát alkalmazó termékekért végső soron mindig emberek a felelősek.

A Deloitte és a McKinsey, két olyan cég, amelyek gyakran dicsekszenek mesterséges intelligencia képességeikkel, nem kívántak nyilatkozni. A Deloitte beleegyezett, hogy megtéríti a költségek egy részét az ausztrál foglalkoztatási és munkaügyi kapcsolatokért felelős minisztériumnak.

deloitte afr
A Deloitte botrányba keveredett, mivel a mesterséges intelligencia „információkat hamisított” jelentések írásakor. Fotó: AFR

Egy szenátusi meghallgatáson Gordon de Brouwer, az ausztrál közszolgálat vezetője hangsúlyozta: „A mesterséges intelligencia nem felelős a munkádért. Te vagy a felelős.”

Barbara Pocock, a zöldek szenátora felszólította a kormányt, hogy kötelezze a vállalkozókat a mesterséges intelligencia használatának nyilvános közzétételére, és ellenőrizzen minden mesterséges intelligencia által generált tartalmat. „Ez nem pusztán mesterséges hanyagság, hanem szándékos hanyagság... A Deloitte munkája nem éri el egy elsőéves egyetemi vizsga színvonalát... Ha a kormányzati munkák elvégzésére felbérelt vállalkozók továbbra is kiszervezik a mesterséges intelligenciával kapcsolatos munkákat, akkor ellenőrzésekre van szükség. Ez nem túl nagy kérés” – mondta.

Pocock asszony törvényjavaslatot nyújtott be, amely öt évre kitiltaná az etikátlan magatartást tanúsító vállalkozókat a kormányzati szerződésekből, és teljes visszatérítést követel a Deloitte-tól.

A mesterséges intelligencia támogatja, nem helyettesíti az embereket

A kisebb tanácsadó cégek is gyorsan megnyugtatták ügyfeleiket. David Gumley, az ADAPTOVATE vezérigazgatója elmondta, hogy a mesterséges intelligenciát a hatékonyság javítására használják, de az soha nem fogja helyettesíteni az emberi szakértelmet.

Egy másik tanácsadó, Lisa Carlin – aki a The Turbochargers egyszemélyes céget vezeti – azt mondta, hogy a tanácsadó cégeknek nyilvános politikával kell rendelkezniük a mesterséges intelligencia használatáról, amelyben elmagyarázzák, hogyan alkalmazzák a technológiát a munkájukban, de nem feltétlenül hozzák nyilvánosságra a használt technológia részleteit.

„A mesterséges intelligencia ma már a standard üzleti eszközök, például az Excel része, de a vállalat továbbra is teljes mértékben felelős a kockázatkezelésért” – mondta Carlin. „Az átláthatóságnak a szabályzatok szintjén kell megvalósulnia, nem minden jelentésben, mert az ügyfeleknek arra van szükségük, hogy biztosak legyenek abban, hogy a vállalat erős ellenőrzésekkel rendelkezik, nem pedig egy figyelmeztető sorra minden oldalon.”

Carlin vállalati ügyfeleket lát el tanácsokkal a mesterséges intelligencia stratégiájával és megvalósításával kapcsolatban, és hangsúlyozza, hogy a jelentés minden részletét, függetlenül attól, hogyan készült, gondosan ellenőrizni kell, mielőtt elküldenék az ügyfélnek.

„A vállalatoknak saját minőségbiztosítási folyamatokkal kell rendelkezniük a mesterséges intelligencia terén, és egyértelmű kockázatértékeléssel kell rendelkezniük” – tette hozzá. „Nincs mentség a »mesterséges intelligencia által generált« megoldásokra. A tanácsadóknak elszámoltathatónak kell lenniük a munkájukért, akárcsak egy gyakornok esetében.”

(Az AFR szerint)

Forrás: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html