
(Fotoğraf: LinkedIn)
Dünyanın "Dört Büyük" denetçilerinden biri olan Deloitte, yanlış bilgi içeren raporlar hazırlamak için yapay zekâ (YZ) kullanmakla suçlanıyor. Bu olay, şirketin itibarını sarsmakla kalmayıp, dürüstlük, doğruluk ve güvene dayalı bir alanda YZ'nin sorumlu kullanımı konusunda küresel bir tartışmayı da alevlendirdi.
Liderin "düşüşü"
AP News'in (Ekim 2025) haberine göre, Deloitte Avustralya, Çalışma ve İstihdam İlişkileri Bakanlığı'na (DEWR) gönderilen raporun mevcut olmayan yasal atıflar ve sahte akademik makaleler içerdiğini tespit ettikten sonra, sözleşme bedelinin 440.000 Avustralya Doları (yaklaşık 290.000 ABD Doları) tutarındaki kısmını Avustralya hükümetine iade etmeyi kabul etti. Deloitte tarafından daha sonra yapılan bir iç inceleme, içeriğin bir kısmının Microsoft'un yapay zeka modeli olan "Azure OpenAI" aracı tarafından oluşturulduğunu doğruladı.
Olay, anında bir zincirleme reaksiyona yol açarak uzmanların ve yönetim kuruluşlarının aynı anda şu uyarıda bulunmasına neden oldu: Teknoloji, yasal çerçeveden ve insan denetim kapasitelerinden daha hızlı ilerliyor. CFODive, makinelerin mutlak hassasiyet gerektiren bir sürece katılmasına izin vermenin potansiyel riskleri nedeniyle bunun "tüm kurumsal finans sektörü için bir uyarı" olduğunu belirtti.
Aslında Deloitte, yapay zeka teknolojisini denetim sürecine uygulayan öncülerden biridir. Grup, verimliliği ve analitik derinliği artırmak için büyük veri ve makine öğreniminin gücünden yararlanma taahhüdüyle dijital dönüşüme 1 milyar dolardan fazla yatırım yapmıştır. Financial News London'a göre, Birleşik Krallık'ta Deloitte denetçilerinin %75'inden fazlası "PairD" adlı dahili bir sohbet robotu kullanmıştır; bu, bir önceki yıla göre üç kat artış anlamına gelmektedir.
Yapay zeka, denetçilerin büyük hacimli verileri işlemesine, binlerce sayfalık sözleşmelerden bilgi çıkarmasına, anormallikleri tespit etmesine ve yüzlerce saatlik iş gücünden tasarruf etmesine yardımcı oluyor. Ancak Deloitte Avustralya'daki olay, bu sürecin olumsuz yönlerini gözler önüne seriyor: Teknoloji yakından takip edilmediğinde, yapay zeka "kurgu" içerikler üretebiliyor; yani makul görünen ama aslında tamamen yanlış bilgiler.

(Fotoğraf: Getty Images)
Soruşturma raporuna göre, Deloitte'un 237 sayfalık raporunda, hiçbir zaman gün yüzüne çıkmayan bir Avustralya federal mahkemesi kararına atıfta bulunuldu. Ekteki bazı referanslar da mevcut değildi. Deloitte, ancak bir devlet kurumunun incelemesi ve sorgulaması sonrasında, derleme sürecinde yapay zeka araçlarının kullanıldığını kabul etti. Şirket, "yapay zekanın yalnızca destekleyici bir rol oynadığını" iddia etse de, bu olay marka itibarını önemli ölçüde zedeledi ve çalışma sürecinin şeffaflığı hakkında soru işaretleri yarattı.
Buradaki sorun sadece teknik bir hata değil, toplumsal güvene dayalı denetim mesleğinin temellerine dokunan bir hatadır. Dünyanın en büyük dört denetim firmasından biri yapay zekâ ile ilgili bir hata yaptığında, kamuoyunun tüm sektörün bağımsızlığına ve etik değerlerine olan güveni sarsılır.
Yapay zekanın PwC, EY veya KPMG gibi diğer denetim firmalarında popüler bir araç haline gelmesiyle birlikte bu etki daha da ciddileşiyor. Denetim Kalitesi Merkezi (CAQ) tarafından yapılan bir ankete göre, küresel denetim ortaklarının üçte birinden fazlası denetim sürecinde yapay zeka kullandıklarını veya kullanmayı planladıklarını belirtti. Bu, sistem hataları riskinin, doğru yönetilmediği takdirde küresel ölçekte yayılabileceği anlamına geliyor.
Yapay zeka çağında denetim: Fırsatlar ve uyarılar
Bu şokun ardından denetim sektörü, fırsatların ve risklerin iç içe geçtiği yapay zeka çağına nasıl girdiğini yeniden değerlendirmek zorunda kaldı. Olayın ardından Deloitte, yapay zekanın sorumlu kullanımına yönelik beş ilkeye odaklanan bir kılavuz sistemi olan "Güvenilir Yapay Zeka Çerçevesi"ni hızla duyurdu: adalet, şeffaflık, açıklanabilirlik, sorumluluk ve gizlilik. Şirket ayrıca, analiz ve raporlama sürecini desteklemek için "GenAI" yeteneklerini entegre ederek küresel Omnia Denetim Platformunu genişletti. Deloitte, yapay zeka tarafından üretilen tüm sonuçların yayınlanmadan önce insan uzmanlar tarafından kontrol edilip doğrulanması gerektiğini belirtti.
Ancak uzmanlar, Deloitte'un çabalarının -gerekli olmakla birlikte- denetim sektöründe insan ve teknoloji arasındaki ilişkiyi yeniden yapılandırma yolunda atılan uzun bir yolculuğun sadece ilk adımı olduğunu söylüyor. Financial Times uzmanları, birçok şirketin net kontrol ve etki değerlendirme mekanizmaları oluşturmadan "yapay zekayla yarıştığı" konusunda uyarıyor. Yapay zeka zamandan tasarruf sağlıyor, ancak aynı zamanda insan ve makine işi arasındaki çizgiyi belirsizleştiriyor; özellikle de denetçilerin doğası gereği muhakeme ve mesleki şüphecilik gerektiren görevlerde.
Büyük Dörtlü'nün bir diğer üyesi olan PwC, yeni işe alımlar için eğitim programını kamuoyuna açıkladı: Temel denetim yapmak yerine, "yapay zekayı izlemeyi", sonuçları analiz etmeyi ve teknolojik riskleri değerlendirmeyi öğrenecekler. Business Insider'a göre şirket, "geleceğin denetçisinin artık sadece sayıları okumakla kalmayıp, aynı zamanda makinelerin nasıl düşündüğünü de anlayabileceğine" inanıyor.

(Fotoğraf: Rahul)
Bu arada, düzenleyici kurumlar ve meslek kuruluşları "Yapay Zeka denetimi" için yeni standartlar yayınlamayı düşünmeye başlıyor. Uluslararası Denetim ve Güvence Standartları Kurulu (IAASB), kanıt toplama ve raporlamada yapay zeka araçlarının kullanımına ilişkin ek kılavuzlar üzerinde çalışıyor. Bazı uzmanlar, küresel tutarlılığı sağlamak için ayrı bir denetim standardı oluşturulmasını önerdi.
Bu gelişmeler, denetim sektörünün köklü bir dönüşüm dönemine girdiğini gösteriyor. Teknoloji ortadan kaldırılamaz, ancak uygulanması dikkatli ve sıkı bir kontrol gerektirir. Aksi takdirde, kontrolü kaybetme riski, yüzyıllardır süregelen finansal sisteme duyulan güvenin sadece birkaç tıklamayla çökmesine neden olabilir.
Fırsat perspektifinden bakıldığında, yapay zekâ benzeri görülmemiş atılımlar vaat ediyor: Kısa sürede milyonlarca işlemi işleme yeteneği, insanların tespit etmesi zor olan karmaşık dolandırıcılıkları tespit etme ve "sürekli denetim" kavramını - riskleri gerçek zamanlı izleme - hayata geçirme. Deloitte, PwC, KPMG ve EY, kendi yapay zekâ sistemlerini geliştirmek için her yıl yüz milyonlarca dolar yatırım yapıyor.
Ancak fırsatlar ancak sorumlulukla desteklendiğinde gerçek değere dönüştürülebilir. Deloitte Avustralya'dan alınan ders, teknolojinin çalışma biçimini değiştirebileceğini, ancak etiğin ve insan doğrulamasının yerini alamayacağını gösteriyor. Yapay zeka denetimi dünyasında güven hâlâ en büyük değer.
Uzmanlar Deloitte davasından birçok önemli ders çıkardı:
- Yapay zekanın kullanımında mutlak şeffaflık: Yapay zeka araçlarıyla oluşturulan veya desteklenen her türlü içeriğin müşterilere ve düzenleyicilere açıkça açıklanması gerekir.
- Eğitim ve denetim becerilerinin geliştirilmesi: Denetçilerin yapay zekanın nasıl çalıştığını anlamaları, teknolojinin sınırlarını bilmeleri ve sonuçların makul olup olmadığını değerlendirebilmeleri gerekir.
- Yapay zeka için bir denetim mekanizması kurun: Sadece finansal verilerin denetlenmesi gerekmiyor, aynı zamanda nesnellik ve şeffaflığın sağlanması için yapay zeka süreçleri ve modellerinin de "yeniden denetlenmesi" gerekiyor.
- Mesleki etik kurallarına uyun: Teknoloji ne kadar gelişirse gelişsin, denetimin temel ilkeleri "bağımsızlık, dürüstlük ve objektiflik" olarak kalmaya devam ediyor.
Kaynak: https://vtv.vn/nganh-kiem-toan-chan-dong-vi-ai-100251103192302453.htm






Yorum (0)