După ce Deloitte a trebuit să reemite un raport de 440.000 de dolari către guvernul australian din cauza unei erori grave a inteligenței artificiale (IA), concurenții din grupul „Big 4”, inclusiv EY, KPMG, PwC și Boston Consulting Group (BCG), au intervenit rapid pentru a afirma că au procese stricte de control pentru a evita erori similare.

Deloitte se confruntă acum cu presiuni intense după ce raportul inițial conținea trei referințe fictive și un citat fabricat dintr-o hotărâre a Curții Federale. Versiunea revizuită elimină peste o duzină de citate eronate și corectează bibliografia, deși recomandările rămân aceleași.

Cazul a atras atenția internațională, devenind un exemplu tipic de „halucinație” – atunci când inteligența artificială „fabrică” informații ca și cum ar fi reale. Opinia publică și experții cer ca guvernul premierului Anthony Albanese să oblige consultanții să dezvăluie momentele în care utilizează inteligența artificială în contractele de stat.

Cei 4 mari se întrec pentru a demonstra că „folosesc IA în mod responsabil”

EY insistă că toate rezultatele generate de inteligența artificială trebuie revizuite temeinic de către angajați înainte de a fi utilizate. KPMG declară că are un „Cadru de încredere în inteligența artificială” și un „Registru public de inteligență artificială” al instrumentelor pe care le utilizează în serviciile sale, inclusiv cu clienții guvernamentali.

BCG a subliniat că toate produsele de consultanță sunt supuse unei „verificări riguroase din partea conducerii”, în timp ce PwC a subliniat că aderă la principiul „oamenii implicați” - oamenii sunt întotdeauna responsabili în cele din urmă pentru produsele care implică inteligența artificială.

Deloitte și McKinsey, două firme care se laudă adesea cu capacitățile lor de inteligență artificială, au refuzat să comenteze. Deloitte a fost de acord să ramburseze o parte din costuri către Departamentul Australian pentru Ocuparea Forței de Muncă și Relații Industriale.

Deloitte AFR
Deloitte a fost implicată într-un scandal legat de „fabricarea de informații” de către inteligența artificială atunci când redacta rapoarte. Foto: AFR

În cadrul unei audieri în Senat, Gordon de Brouwer, șeful serviciului public australian, a subliniat: „IA nu este responsabilă pentru munca ta. Tu ești responsabil.”

Senatoarea Verzilor, Barbara Pocock, a cerut guvernului să oblige contractorii să dezvăluie public utilizarea inteligenței artificiale de către ei și să verifice tot conținutul generat de aceasta. „Nu este vorba doar de neglijență artificială, ci de neglijență deliberată... Munca Deloitte nu este la nivelul unui examen universitar din primul an... Dacă contractorii angajați să efectueze lucrări guvernamentale vor continua să externalizeze lucrări legate de inteligența artificială, trebuie să existe verificări. Nu este prea mult de cerut”, a spus ea.

Dna Pocock a introdus o lege care interzice contractorilor care au un comportament lipsit de etică să participe la contractele guvernamentale timp de cinci ani și a solicitat rambursări integrale din partea Deloitte.

IA susține, nu înlocuiește, oamenii

Și firmele de consultanță mai mici au fost prompte în a-și liniști clienții. David Gumley, CEO al ADAPTOVATE, a declarat că utilizează inteligența artificială pentru a îmbunătăți eficiența, dar aceasta nu va înlocui niciodată expertiza umană.

O altă consultantă, Lisa Carlin – care conduce firma unipersonală The Turbochargers – a declarat că firmele de consultanță trebuie să aibă o politică publică privind utilizarea inteligenței artificiale, care să explice modul în care tehnologia este aplicată în activitatea lor, dar nu neapărat să dezvăluie detalii despre tehnologia utilizată.

„IA face acum parte din instrumentele standard de business, cum ar fi Excel, dar compania are în continuare întreaga responsabilitate pentru gestionarea riscurilor”, a spus Carlin. „Transparența ar trebui să fie la nivel de politică, nu în fiecare raport, deoarece ceea ce au nevoie clienții este încrederea că firma are controale solide, nu o linie de avertizare pe fiecare pagină.”

Carlin oferă consultanță clienților corporativi cu privire la strategia și implementarea inteligenței artificiale și subliniază faptul că fiecare detaliu dintr-un raport, indiferent de modul în care a fost creat, ar trebui verificat cu atenție înainte de a fi trimis unui client.

„Companiile trebuie să aibă propriile procese de asigurare a calității pentru IA și o evaluare clară a riscurilor”, a adăugat ea. „Nu există nicio scuză pentru «generat de IA». Consultanții trebuie să fie responsabili pentru munca lor, la fel cum ar face-o pentru un stagiar.”

(Conform AFR)

Sursă: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html