Oggi più che mai è importante promuovere un modello di gestione dell’IA per garantire alle aziende di raggiungere i propri obiettivi di business rispettando principi etici e requisiti normativi.
Per scegliere i passi migliori da fare è importante capire qual è il livello di maturità delle imprese italiane in termini di strategia, governance ed etica dell’intelligenza artificiale; per far ciò, Deloitte ha pubblicato il Trustworthy AI Survey che ha indagato lo stato dell’arte delle aziende italiane.
Il sondaggio, svoltosi da settembre 2022 ad aprile 2023 tramite questionari online e interviste di approfondimento, ha coinvolto tutti i settori industriali e ha classificato le imprese per maturità implementativa ed etica: la prima tiene conto del numero di sistemi di IA implementati e del tempo di utilizzo della tecnologia; la seconda considera il numero di processi implementati per garantire il rispetto dei principi etici durante tutto il ciclo di vita dei sistemi.
L’indagine, in linea con il Technology Trust Ethics Framework sviluppato da Deloitte, ha considerato 7 principi etici per descrivere il livello delle soluzioni in uso:
- trasparenza e spiegabilità, per capire come vengono usati i dati e come si prendono le decisioni;
- equità e imparzialità dei risultati;
- coerenza e affidabilità degli output;
- rispetto della privacy;
- protezione dei dati;
- possibilità di assegnare le responsabilità in merito alle decisioni del sistema;
- garanzia di uno sviluppo sostenibile e responsabile rispetto a valori sociali e ambientali.
Secondo i risultati, più della metà delle imprese italiane (59%) conta bassi livelli di maturità sia implementativa che etica, e solo il 17% delle aziende può contare un numero elevato di implementazioni di IA e processi etici.
Dividendo le imprese tra settore finanziario e industriale, il primo è quello che conta il maggior numero di aziende con una strategia di IA ben definita; nel settore industriale, invece, solo i grandi player sono riusciti a definire processi adeguati.
Gran parte delle imprese, pur riconoscendo l’importanza di definire una strategia per lo sviluppo e l’uso di sistemi di IA, non è ancora riuscita a mettere in pratica le iniziative desiderate. Tra queste figurano in particolare l’implementazione di una data strategy per valorizzare i dati, l’applicazione dell’IA sui processi aziendali e lo sviluppo di competenze multi-disciplinari nell’intelligenza artificiale.
Secondo Deloitte, la responsabilità per la corretta adozione dell’IA va condivisa tra tutte le figure della C-suite: ognuna di esse deve intraprendere precise azioni per sviluppare il programma strategico e garantire che dia i frutti sperati.
Adottare l'IA tra benefici e ostacoli
Le imprese hanno colto i numerosi benefici dei sistemi di intelligenza artificiale; tra questi, i principali perseguiti dalle aziende sono migliorare la relazione col cliente, ridurre i costi operativi, migliorare i processi decisionali, creare nuovi prodotti e migliorare quelli esistenti, e sviluppare modelli di business ad alto valore.
L’implementazione di una strategia efficace per l’IA comporta però diversi ostacoli, come la difficoltà di identificazione degli use case rilevanti per il business, la bassa qualità dei dati a disposizione, la difficile integrazione dell’IA nel modello operativo dell’azienda e soprattutto la mancanza di personale qualificato.
Il 62% delle imprese intervistate ha infatti affermato di soffrire di un gap di skill medio o alto per la realizzazione di soluzioni di IA; la percentuale cresce al 70% quando si parla di processi di governance etica.
Le aziende stanno così investendo su formazione interna, di natura principalmente tecnica, e sull’assunzione di personale qualificato per gestire i sistemi e i dati. Non manca poi il coinvolgimento di figure esperte esterne, soprattutto per quanto riguarda la gestione del rischio e dell’etica.
Modelli organizzativi e approcci per fronteggiare le nuove normative
Per garantire lo sviluppo di una strategia etica efficace, le imprese hanno scelto tre principali categorie di assetto organizzativo: centralizzato, nel quale c’è un’unica unità organizzativa per gestire le attività progettuali di tutte le funzioni aziendali; decentralizzato, dove ogni dipartimento può attuare le proprie iniziative; ibrido "hub and spoke", nel quale un presidio centrale (hub) governa il portafoglio di iniziative IA e le altre unità possono realizzare soluzioni verticali sulla base delle indicazioni dell’hub.
Quest’ultima soluzione si è rivelata la più efficace ed è quella attualmente in uso dalle aziende leader nei processi di IA etica.
Qualsiasi sia il modello organizzativo, le imprese devono aggiornare i propri strumenti e metodologie per tenere il passo con l’evoluzione delle normative. La prossima entrata in vigore dell’AI Act, in particolare, richiede alle aziende di seguire un approccio basato sul rischio, definendo i requisiti per da rispettare per le soluzioni introdotte sul mercato.
Per mitigare il rischio, le imprese stanno monitorando l’evolversi delle normative e valutando la conformità delle soluzioni in uso. Le aziende devono inoltre aggiornare il framework per la gestione del rischio, identificando i nuovi pericoli derivanti dai sistemi di IA, e pianificare controlli periodici e su più livelli.
Visto il crescente utilizzo dei sistemi di IA, le realtà italiane stanno dando sempre più importanza alla questione etica tramite il rinnovamento di processi, metodologie e strumenti. La privacy e la protezione dei dati, in particolare, sono tra gli ambiti più presidiati dalle aziende.
Al fine di ottenere effettivo vantaggio strategico dalle soluzioni di intelligenza artificiale è fondamentale definire ruoli e responsabilità interni, condividere i principi etici, le metodologie di applicazione e gli indicatori per misurare la corretta adozione degli stessi, identificare i casi d’uso e promuovere una cultura aziendale improntata all'IA.