Nachdem Deloitte aufgrund eines schwerwiegenden Fehlers der künstlichen Intelligenz (KI) einen Bericht im Wert von 440.000 US-Dollar an die australische Regierung neu ausstellen musste, meldeten sich Konkurrenten aus der Gruppe der „Big Four“, darunter EY, KPMG, PwC und die Boston Consulting Group (BCG), schnell zu Wort und versicherten, dass sie über strenge Kontrollprozesse verfügen, um ähnliche Fehler zu vermeiden.

Deloitte steht nun unter starkem Druck, nachdem der ursprüngliche Bericht drei fiktive Quellenangaben und ein erfundenes Zitat aus einem Urteil des Bundesgerichts enthielt. Die überarbeitete Fassung entfernt mehr als ein Dutzend fehlerhafte Zitate und korrigiert das Literaturverzeichnis; die Empfehlungen bleiben jedoch unverändert.

Der Fall hat internationale Aufmerksamkeit erregt und ist zu einem typischen Beispiel für „Halluzinationen“ geworden – wenn KI Informationen so „erfindet“, als wären sie real. Öffentlichkeit und Experten fordern die Regierung von Premierminister Anthony Albanese auf, Berater zu verpflichten, den Einsatz von KI in staatlichen Aufträgen offenzulegen.

Die vier großen Konzerne wetteifern darum, zu beweisen, dass sie „KI verantwortungsvoll einsetzen“.

EY besteht darauf, dass alle KI-generierten Ergebnisse vor ihrer Verwendung gründlich von Mitarbeitern geprüft werden müssen. KPMG gibt an, über ein „KI-Vertrauensrahmenwerk“ und ein öffentliches „KI-Register“ der in seinen Dienstleistungen, auch für Kunden aus dem öffentlichen Sektor, eingesetzten Tools zu verfügen.

BCG betonte, dass alle Beratungsprodukte einer „strengen Überprüfung durch die Führungsebene“ unterzogen werden, während PwC hervorhob, dass es sich an den Grundsatz „Menschen im Entscheidungsprozess“ hält – Menschen sind letztendlich immer für Produkte verantwortlich, die KI beinhalten.

Deloitte und McKinsey, zwei Unternehmen, die häufig mit ihren KI-Kompetenzen werben, lehnten eine Stellungnahme ab. Deloitte hat sich bereit erklärt, einen Teil der Kosten an das australische Arbeitsministerium zu erstatten.

Deloitte Afrika
Deloitte geriet in einen Skandal um KI, die bei der Berichtserstellung „Informationen erfand“. Foto: AFR

In einer Anhörung im Senat betonte Gordon de Brouwer, Leiter des australischen öffentlichen Dienstes: „AI ist nicht für Ihre Arbeit verantwortlich. Sie sind verantwortlich.“

Die Senatorin der Grünen, Barbara Pocock, forderte die Regierung auf, Auftragnehmer zu verpflichten, ihren KI-Einsatz offenzulegen und alle KI-generierten Inhalte zu überprüfen. „Das ist nicht nur fahrlässiges Verhalten, sondern vorsätzliche Fahrlässigkeit… Die Arbeit von Deloitte entspricht nicht einmal dem Niveau einer Prüfung im ersten Studienjahr… Wenn Auftragnehmer, die mit Regierungsaufträgen betraut sind, weiterhin KI-Arbeiten auslagern, müssen Kontrollen stattfinden. Das ist nicht zu viel verlangt“, sagte sie.

Frau Pocock hat einen Gesetzesentwurf eingebracht, der Auftragnehmer, die sich unethischen Verhaltens schuldig gemacht haben, für fünf Jahre von Regierungsaufträgen ausschließt und fordert eine vollständige Rückerstattung von Deloitte.

KI unterstützt den Menschen, ersetzt ihn aber nicht.

Auch kleinere Beratungsfirmen beeilten sich, ihre Kunden zu beruhigen. David Gumley, CEO von ADAPTOVATE, erklärte, man nutze KI zur Effizienzsteigerung, aber sie werde niemals menschliches Fachwissen ersetzen.

Eine weitere Beraterin, Lisa Carlin – die das Ein-Personen-Unternehmen The Turbochargers leitet – sagte, dass Beratungsunternehmen eine öffentliche Richtlinie zum Einsatz von KI benötigen, in der sie erklären, wie die Technologie in ihrer Arbeit eingesetzt wird, ohne jedoch unbedingt Details über die verwendete Technologie preiszugeben.

„KI ist mittlerweile fester Bestandteil gängiger Geschäftswerkzeuge wie Excel, doch die Verantwortung für das Risikomanagement liegt weiterhin voll und ganz beim Unternehmen“, sagte Carlin. „Transparenz sollte auf Richtlinienebene verankert sein, nicht in jedem einzelnen Bericht. Denn Kunden brauchen die Gewissheit, dass das Unternehmen über wirksame Kontrollmechanismen verfügt, und nicht auf jeder Seite einen Warnhinweis.“

Carlin berät Firmenkunden zu KI-Strategie und -Implementierung und betont, dass jedes Detail in einem Bericht, unabhängig davon, wie es erstellt wurde, sorgfältig geprüft werden sollte, bevor er an einen Kunden gesendet wird.

„Unternehmen benötigen eigene Qualitätssicherungsprozesse für KI und eine klare Risikobewertung“, fügte sie hinzu. „Es gibt keine Entschuldigung für ‚KI-generierte‘ Ergebnisse. Berater müssen für ihre Arbeit genauso verantwortlich sein wie für Praktikanten.“

(Laut AFR)

Quelle: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html