Un partner di KPMG Australia è stato sanzionato con una multa di 10.000 dollari australiani (circa 6.500 euro) per aver utilizzato strumenti di intelligenza artificiale durante un corso di formazione interno dedicato proprio all'uso dell'AI. Il professionista ha caricato materiali didattici su una piattaforma di intelligenza artificiale per generare le risposte al test, come rivelato dal Financial Times e confermato dalla stessa società di consulenza. L'episodio solleva interrogativi sulla capacità delle grandi società di servizi professionali di gestire internamente le stesse tecnologie che propongono ai clienti.
Il caso australiano non è isolato all'interno della multinazionale della revisione contabile. KPMG ha ammesso che oltre due dozzine di dipendenti sono stati sorpresi a utilizzare strumenti di intelligenza artificiale durante esami interni, limitando però la cifra al solo territorio australiano. La vicenda è emersa durante un'indagine del senato australiano sulla governance aziendale, dove la senatrice Barbara Pocock del partito dei Verdi ha definito la sanzione inadeguata, lamentando un sistema normativo inefficace.
Andrew Yates, amministratore delegato di KPMG Australia, ha riconosciuto che la società sta "facendo i conti" con l'impatto dell'intelligenza artificiale sui programmi di formazione e valutazione interni. La rapidità con cui la società ha abbracciato queste tecnologie, secondo Yates, rende particolarmente complesso stabilire protocolli di utilizzo efficaci. Un'ammissione che suona paradossale per un'organizzazione che fattura miliardi consigliando altre imprese proprio sull'implementazione di soluzioni digitali e sulla trasformazione tecnologica.
Il settore della consulenza strategica e della revisione contabile si trova in una posizione delicata. Le quattro grandi società di revisione (Big Four) promuovono aggressivamente servizi legati all'intelligenza artificiale, posizionandosi come partner strategici per la digitalizzazione dei clienti. Tuttavia, gli episodi recenti evidenziano una discrepanza tra la retorica commerciale e la capacità operativa interna di gestire queste tecnologie. La concorrente Deloitte Australia ha dovuto rimborsare una parte consistente degli onorari per un report governativo dello scorso anno, infarcito di allucinazioni generate dall'AI, incluse citazioni inesistenti di sentenze giudiziarie e ricerche accademiche mai pubblicate.
Il problema non riguarda solo il settore privato. Nel Regno Unito, il capo della polizia delle West Midlands, Craig Guildford, si è dimesso anticipatamente dopo che è emerso l'utilizzo di Copilot per valutare la sicurezza di una partita di calcio tra Aston Villa e Maccabi Tel Aviv. Lo strumento aveva sollevato preoccupazioni citando disordini durante un incontro tra Maccabi Tel Aviv e West Ham, mai realmente verificatosi. L'episodio ha portato alla disattivazione temporanea di Copilot nell'intero corpo di polizia, mentre l'autorità per gli standard professionali conduce un'indagine.
La questione solleva interrogativi più ampi sulla governance dell'intelligenza artificiale nelle organizzazioni professionali. Le società di consulenza stanno monetizzando l'hype attorno all'AI, vendendo soluzioni e servizi per decine di milioni, mentre internamente faticano a stabilire protocolli d'uso basilari. McKinsey, altra protagonista del settore, ha recentemente pubblicato ricerche sulle difficoltà nel misurare i benefici concreti delle applicazioni di intelligenza artificiale, un'ammissione che contrasta con le promesse di trasformazione radicale rivolte ai clienti.
L'ironia del caso KPMG è evidente: un partner che usa l'AI per superare un corso sull'AI evidenzia non solo una carenza etica individuale, ma un fallimento sistemico nella progettazione dei percorsi formativi. Se gli strumenti sono così accessibili e potenti da rendere obsoleti i test tradizionali, le organizzazioni dovrebbero ripensare radicalmente i metodi di valutazione delle competenze, piuttosto che limitarsi a sanzionare chi sfrutta le scorciatoie tecnologiche disponibili.
Resta da chiedersi se le sanzioni simboliche e le indagini interne siano sufficienti a garantire standard professionali adeguati in un'era in cui la tecnologia evolve più rapidamente dei framework etici e normativi. Le società di consulenza rischiano di trovarsi in una posizione insostenibile: vendere competenze che non riescono a governare internamente mina la credibilità su cui si fonda l'intero modello di business dei servizi professionali.