Αφού η Deloitte αναγκάστηκε να επανεκδώσει μια έκθεση ύψους 440.000 δολαρίων προς την αυστραλιανή κυβέρνηση λόγω ενός σοβαρού σφάλματος από την τεχνητή νοημοσύνη (AI), οι ανταγωνιστές στην ομάδα των "Big 4", συμπεριλαμβανομένων των EY, KPMG, PwC και Boston Consulting Group (BCG), επιβεβαίωσαν γρήγορα ότι διαθέτουν αυστηρές διαδικασίες ελέγχου για την αποφυγή παρόμοιων σφαλμάτων.

Η Deloitte αντιμετωπίζει τώρα έντονες πιέσεις, αφού η αρχική έκθεση περιείχε τρεις φανταστικές αναφορές και ένα κατασκευασμένο απόσπασμα από απόφαση Ομοσπονδιακού Δικαστηρίου. Η αναθεωρημένη έκδοση αφαιρεί περισσότερες από δώδεκα εσφαλμένες αναφορές και διορθώνει τη βιβλιογραφία, αν και οι συστάσεις παραμένουν οι ίδιες.

Η υπόθεση έχει προσελκύσει διεθνή προσοχή, αποτελώντας ένα τυπικό παράδειγμα «παραίσθησης» – όταν η Τεχνητή Νοημοσύνη «κατασκευάζει» πληροφορίες σαν να ήταν πραγματικές. Η κοινή γνώμη και οι ειδικοί απαιτούν από τους συμβούλους δυνάμεων της κυβέρνησης του πρωθυπουργού Άντονι Αλμπανέζε να αποκαλύψουν πότε χρησιμοποιούν την Τεχνητή Νοημοσύνη σε κρατικές συμβάσεις.

Οι Big 4 αγωνίζονται για να αποδείξουν ότι «χρησιμοποιούν την Τεχνητή Νοημοσύνη υπεύθυνα»

Η EY επιμένει ότι όλα τα αποτελέσματα που παράγονται από την Τεχνητή Νοημοσύνη πρέπει να ελέγχονται διεξοδικά από τους υπαλλήλους πριν από τη χρήση τους. Η KPMG αναφέρει ότι διαθέτει ένα «Πλαίσιο Εμπιστοσύνης Τεχνητής Νοημοσύνης» και ένα δημόσιο «Μητρώο Τεχνητής Νοημοσύνης» εργαλείων που χρησιμοποιεί στις υπηρεσίες της, συμπεριλαμβανομένων και αυτών που συνεργάζονται με κυβερνητικούς πελάτες.

Η BCG τόνισε ότι όλα τα προϊόντα συμβουλευτικής υποβάλλονται σε «αυστηρό έλεγχο ηγεσίας», ενώ η PwC τόνισε ότι τηρεί την αρχή «άνθρωποι εν κινήσει» — οι άνθρωποι είναι πάντα τελικά υπεύθυνοι για τα προϊόντα που αφορούν την Τεχνητή Νοημοσύνη.

Η Deloitte και η McKinsey, δύο εταιρείες που συχνά καυχιούνται για τις δυνατότητές τους στην Τεχνητή Νοημοσύνη, αρνήθηκαν να σχολιάσουν. Η Deloitte συμφώνησε να αποζημιώσει μέρος του κόστους στο Υπουργείο Απασχόλησης και Βιομηχανικών Σχέσεων της Αυστραλίας.

deloitte afr
Η Deloitte ενεπλάκη σε σκάνδαλο σχετικά με την «κατασκευή πληροφοριών» από την Τεχνητή Νοημοσύνη κατά τη σύνταξη εκθέσεων. Φωτογραφία: AFR

Σε ακρόαση της Γερουσίας, ο Γκόρντον ντε Μπράουερ, επικεφαλής της Αυστραλιανής Δημόσιας Υπηρεσίας, τόνισε: «Η Τεχνητή Νοημοσύνη δεν είναι υπεύθυνη για την εργασία σας. Εσείς είστε υπεύθυνοι».

Η γερουσιαστής των Πρασίνων, Μπάρμπαρα Πόκοκ, κάλεσε την κυβέρνηση να αναγκάσει τους εργολάβους να δημοσιοποιούν τη χρήση της Τεχνητής Νοημοσύνης και να επαληθεύουν όλο το περιεχόμενο που παράγεται από την Τεχνητή Νοημοσύνη. «Δεν πρόκειται απλώς για τεχνητή αμέλεια, είναι σκόπιμη αμέλεια... Η εργασία της Deloitte δεν ανταποκρίνεται στο πρότυπο μιας εξέτασης πρώτου έτους στο πανεπιστήμιο... Εάν οι εργολάβοι που προσλαμβάνονται για να κάνουν κυβερνητική εργασία πρόκειται να συνεχίσουν να αναθέτουν σε εξωτερικούς συνεργάτες την εργασία της Τεχνητής Νοημοσύνης, πρέπει να υπάρξουν έλεγχοι. Δεν είναι υπερβολικό να ζητάμε κάτι τέτοιο», είπε.

Η κα Pocock εισήγαγε νομοθεσία για την απαγόρευση της συμμετοχής σε κυβερνητικές συμβάσεις εργολάβων που διαπιστώνεται ότι έχουν εμπλακεί σε ανήθικη συμπεριφορά για πέντε χρόνια και ζήτησε πλήρη επιστροφή χρημάτων από την Deloitte.

Η Τεχνητή Νοημοσύνη υποστηρίζει, δεν αντικαθιστά, τους ανθρώπους

Οι μικρότερες συμβουλευτικές εταιρείες έσπευσαν επίσης να καθησυχάσουν τους πελάτες. Ο David Gumley, Διευθύνων Σύμβουλος της ADAPTOVATE, δήλωσε ότι χρησιμοποιούν την Τεχνητή Νοημοσύνη για τη βελτίωση της αποδοτικότητας, αλλά δεν θα αντικαταστήσει ποτέ την ανθρώπινη εμπειρογνωμοσύνη.

Μια άλλη σύμβουλος, η Λίζα Κάρλιν – η οποία διευθύνει την ατομική εταιρεία The Turbochargers – δήλωσε ότι οι συμβουλευτικές εταιρείες πρέπει να έχουν δημόσια πολιτική σχετικά με τη χρήση της Τεχνητής Νοημοσύνης, η οποία να εξηγεί πώς εφαρμόζεται η τεχνολογία στο έργο τους, αλλά να μην αποκαλύπτει απαραίτητα λεπτομέρειες σχετικά με την τεχνολογία που χρησιμοποιείται.

«Η Τεχνητή Νοημοσύνη αποτελεί πλέον μέρος των τυπικών επιχειρηματικών εργαλείων, όπως το Excel, αλλά η εταιρεία εξακολουθεί να έχει την πλήρη ευθύνη για τη διαχείριση του κινδύνου», δήλωσε ο Carlin. «Η διαφάνεια θα πρέπει να υπάρχει σε επίπεδο πολιτικής, όχι σε κάθε αναφορά, επειδή αυτό που χρειάζονται οι πελάτες είναι η εμπιστοσύνη ότι η εταιρεία διαθέτει ισχυρούς ελέγχους και όχι μια γραμμή προειδοποίησης σε κάθε σελίδα».

Η Carlin συμβουλεύει εταιρικούς πελάτες σχετικά με τη στρατηγική και την εφαρμογή της Τεχνητής Νοημοσύνης και τονίζει ότι κάθε λεπτομέρεια σε μια αναφορά, ανεξάρτητα από τον τρόπο δημιουργίας της, θα πρέπει να ελέγχεται προσεκτικά πριν από την αποστολή της σε έναν πελάτη.

«Οι εταιρείες πρέπει να έχουν τις δικές τους διαδικασίες διασφάλισης ποιότητας για την Τεχνητή Νοημοσύνη και μια σαφή αξιολόγηση κινδύνου», πρόσθεσε. «Δεν υπάρχει δικαιολογία για την «παραγωγή από την Τεχνητή Νοημοσύνη». Οι σύμβουλοι πρέπει να είναι υπόλογοι για την εργασία τους, όπως ακριβώς θα έκαναν για έναν ασκούμενο».

(Σύμφωνα με το AFR)

Πηγή: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html