Setelah Deloitte harus menerbitkan ulang laporan senilai $440.000 kepada pemerintah Australia akibat kesalahan serius dari kecerdasan buatan (AI), para pesaing dalam kelompok "Empat Besar" termasuk EY, KPMG, PwC, dan Boston Consulting Group (BCG) segera angkat bicara untuk menegaskan bahwa mereka memiliki proses pengendalian yang ketat guna menghindari kesalahan serupa.

Deloitte kini menghadapi tekanan berat setelah laporan aslinya memuat tiga referensi fiktif dan kutipan palsu dari putusan Pengadilan Federal. Versi revisi menghapus lebih dari selusin kutipan yang salah dan mengoreksi bibliografi, meskipun rekomendasinya tetap sama.

Kasus ini telah menarik perhatian internasional, menjadi contoh khas "halusinasi" – ketika AI "memalsukan" informasi seolah-olah nyata. Opini publik dan para ahli menuntut agar pemerintahan Perdana Menteri Anthony Albanese memaksa para konsultan untuk mengungkapkan kapan mereka menggunakan AI dalam kontrak-kontrak negara.

Empat Besar Berlomba Membuktikan Mereka "Menggunakan AI Secara Bertanggung Jawab"

EY menegaskan bahwa semua hasil yang dihasilkan AI harus ditinjau secara menyeluruh oleh karyawan sebelum digunakan. KPMG menyatakan bahwa mereka memiliki "Kerangka Kepercayaan AI" dan "Registrasi AI" publik berisi berbagai alat yang digunakan dalam layanan mereka, termasuk dengan klien pemerintah.

BCG menekankan bahwa semua produk konsultasi menjalani “pemeriksaan kepemimpinan yang ketat,” sementara PwC menekankan bahwa mereka mematuhi prinsip “manusia yang terlibat” — manusia pada akhirnya selalu bertanggung jawab atas produk yang melibatkan AI.

Deloitte dan McKinsey, dua perusahaan yang kerap membanggakan kemampuan AI mereka, menolak berkomentar. Deloitte telah setuju untuk mengganti sebagian biaya kepada Departemen Ketenagakerjaan dan Hubungan Industrial Australia.

deloitte afr
Deloitte terjerat skandal pemalsuan informasi oleh AI saat menulis laporan. Foto: AFR

Dalam sidang Senat, Gordon de Brouwer, kepala Layanan Publik Australia, menekankan: "AI tidak bertanggung jawab atas pekerjaan Anda. Anda yang bertanggung jawab."

Senator Partai Hijau, Barbara Pocock, mendesak pemerintah untuk memaksa kontraktor mengungkapkan penggunaan AI mereka secara publik dan memverifikasi semua konten yang dihasilkan AI. "Ini bukan sekadar kelalaian buatan, melainkan kelalaian yang disengaja... Pekerjaan Deloitte tidak memenuhi standar ujian universitas tahun pertama... Jika kontraktor yang dipekerjakan untuk melakukan pekerjaan pemerintah akan terus mengalihdayakan pekerjaan AI, perlu ada pemeriksaan. Itu bukan permintaan yang terlalu besar," ujarnya.

Ibu Pocock telah memperkenalkan undang-undang untuk melarang kontraktor yang terbukti terlibat dalam perilaku tidak etis dari kontrak pemerintah selama lima tahun dan meminta pengembalian dana penuh dari Deloitte.

AI mendukung, bukan menggantikan, manusia

Perusahaan konsultan yang lebih kecil juga segera meyakinkan klien. David Gumley, CEO ADAPTOVATE, mengatakan mereka menggunakan AI untuk meningkatkan efisiensi, tetapi AI tidak akan pernah menggantikan keahlian manusia.

Konsultan lain, Lisa Carlin – yang menjalankan firma perseorangan The Turbochargers – mengatakan bahwa firma konsultan perlu memiliki kebijakan publik tentang penggunaan AI, menjelaskan bagaimana teknologi tersebut diterapkan dalam pekerjaan mereka, tetapi tidak harus mengungkapkan detail teknologi yang digunakan.

"AI kini menjadi bagian dari perangkat bisnis standar, seperti Excel, tetapi perusahaan tetap memiliki tanggung jawab penuh untuk mengelola risiko," kata Carlin. "Transparansi seharusnya berada di tingkat kebijakan, bukan di setiap laporan, karena yang dibutuhkan pelanggan adalah keyakinan bahwa perusahaan memiliki kontrol yang kuat, bukan peringatan di setiap halaman."

Carlin memberi nasihat kepada klien korporat tentang strategi dan implementasi AI, dan dia menekankan bahwa setiap detail dalam laporan, terlepas dari cara pembuatannya, harus diperiksa dengan cermat sebelum dikirim ke klien.

"Perusahaan perlu memiliki proses penjaminan mutu mereka sendiri untuk AI dan penilaian risiko yang jelas," tambahnya. "Tidak ada alasan untuk 'hasil karya AI'. Konsultan harus bertanggung jawab atas pekerjaan mereka, sama seperti mereka bertanggung jawab kepada pekerja magang."

(Menurut AFR)

Sumber: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html