Po tym, jak firma Deloitte musiała ponownie wystawić australijskiemu rządowi raport na kwotę 440 000 dolarów z powodu poważnego błędu spowodowanego przez sztuczną inteligencję (AI), konkurenci z grupy „Wielkiej Czwórki”, w tym EY, KPMG, PwC i Boston Consulting Group (BCG), szybko zabrali głos, potwierdzając, że stosują rygorystyczne procesy kontroli pozwalające unikać podobnych błędów.
Deloitte stoi obecnie w obliczu ogromnej presji, ponieważ pierwotny raport zawierał trzy fikcyjne odniesienia i sfabrykowany cytat z orzeczenia Sądu Federalnego. Zrewidowana wersja usuwa ponad tuzin błędnych cytatów i poprawia bibliografię, choć zalecenia pozostają bez zmian.
Sprawa przyciągnęła uwagę opinii międzynarodowej, stając się typowym przykładem „halucynacji” – sytuacji, gdy sztuczna inteligencja „fabrykuje” informacje, jakby były prawdziwe. Opinia publiczna i eksperci domagają się, aby rząd premiera Anthony'ego Albanese'a zmusił konsultantów do ujawnienia przypadków wykorzystywania sztucznej inteligencji w kontraktach państwowych.
Wielka Czwórka ściga się, aby udowodnić, że „korzysta ze sztucznej inteligencji odpowiedzialnie”
EY podkreśla, że wszystkie wyniki generowane przez sztuczną inteligencję muszą zostać dokładnie sprawdzone przez pracowników przed ich wykorzystaniem. KPMG twierdzi, że posiada „Ramy Zaufania do AI” oraz publiczny „Rejestr AI” narzędzi wykorzystywanych w ramach świadczonych usług, w tym w kontaktach z klientami rządowymi.
BCG podkreśliło, że wszystkie produkty konsultingowe przechodzą „rygorystyczny proces weryfikacji kierownictwa”, a PwC podkreśliło, że przestrzega zasady „człowieka w pętli” — to ludzie są ostatecznie odpowiedzialni za produkty wykorzystujące sztuczną inteligencję.
Deloitte i McKinsey, dwie firmy często chwalące się swoimi możliwościami w zakresie sztucznej inteligencji, odmówiły komentarza. Deloitte zgodził się zwrócić część kosztów Australijskiemu Departamentowi Zatrudnienia i Stosunków Przemysłowych.

Podczas przesłuchania w Senacie Gordon de Brouwer, szef Australijskiej Służby Publicznej, podkreślił: „Sztuczna inteligencja nie odpowiada za waszą pracę. To wy jesteście za nią odpowiedzialni”.
Senator Partii Zielonych Barbara Pocock wezwała rząd do zmuszenia wykonawców do publicznego ujawniania wykorzystania sztucznej inteligencji i weryfikowania wszystkich treści generowanych przez sztuczną inteligencję. „To nie tylko sztuczne zaniedbanie, to celowe zaniedbanie… Praca Deloitte nie spełnia standardów egzaminu na pierwszym roku studiów… Jeśli wykonawcy zatrudnieni do prac rządowych będą nadal zlecać prace związane ze sztuczną inteligencją na zewnątrz, konieczne są kontrole. To nie jest zbyt wygórowane żądanie” – powiedziała.
Pani Pocock przedstawiła projekt ustawy, która na pięć lat zakazuje kontrahentom, którzy dopuścili się nieetycznego zachowania, udziału w kontraktach rządowych i zażądała od Deloitte pełnego zwrotu poniesionych kosztów.
Sztuczna inteligencja wspiera ludzi, a nie ich zastępuje
Mniejsze firmy konsultingowe również szybko uspokajały klientów. David Gumley, prezes ADAPTOVATE, powiedział, że wykorzystują sztuczną inteligencję do poprawy efektywności, ale nigdy nie zastąpi ona ludzkiej wiedzy fachowej.
Inna konsultantka, Lisa Carlin, która prowadzi jednoosobową firmę The Turbochargers, stwierdziła, że firmy konsultingowe muszą mieć politykę publiczną dotyczącą wykorzystania sztucznej inteligencji, wyjaśniającą, w jaki sposób technologia ta jest wykorzystywana w ich pracy, ale niekoniecznie ujawniającą szczegóły dotyczące wykorzystywanej technologii.
„Sztuczna inteligencja jest teraz częścią standardowych narzędzi biznesowych, takich jak Excel, ale firma nadal ponosi pełną odpowiedzialność za zarządzanie ryzykiem” – powiedział Carlin. „Przejrzystość powinna być na poziomie polityki, a nie w każdym raporcie, ponieważ klienci potrzebują pewności, że firma ma silne mechanizmy kontroli, a nie ostrzeżenia na każdej stronie”.
Carlin doradza klientom korporacyjnym w kwestiach strategii i wdrażania sztucznej inteligencji. Podkreśla, że każdy szczegół raportu, niezależnie od sposobu jego utworzenia, powinien zostać dokładnie sprawdzony przed wysłaniem go do klienta.
„Firmy muszą mieć własne procesy zapewnienia jakości dla sztucznej inteligencji i jasną ocenę ryzyka” – dodała. „Nie ma usprawiedliwienia dla sformułowania „generowane przez sztuczną inteligencję”. Konsultanci muszą ponosić odpowiedzialność za swoją pracę, tak jak w przypadku stażystów”.
(Według AFR)
Source: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html
Komentarz (0)