L’elevata potenza dei modelli di intelligenza artificiale ha portato governi e organizzazioni a cercare di definire norme per regolamentarne l’uso. L’obiettivo, come illustrato da BCG, è sviluppare un’IA responsabile che rispetti i principi di trasparenza, privacy, sicurezza, inclusività e responsabilità.
L’introduzione di leggi e linee guida deve da una parte ridurre il rischio di errori e fallimenti, ma dall’altra anche favorire l’innovazione e lo sviluppo di nuovi modelli sempre più precisi.
Le imprese non devono guardare all’IA responsabile come a un impedimento per gli sviluppi, ma al contrario come un modo per migliorare le performance e al contempo rispettare le regolamentazioni introdotte.
Secondo uno studio BCG le aziende impiegano in media tre anni per sviluppare strategie di IA responsabile ed essere considerate effettivamente mature da un punto di vista normativo; vista l’imminente pubblicazione di nuove norme, come l’Artificial Intelligence Act europeo, le organizzazioni devono concentrare i loro sforzi per creare programmi efficaci a supporto dell’IA.
Ad oggi le imprese considerate più mature nella gestione dell’IA responsabile sono quelle del settore delle telecomunicazioni e della tecnologia, le stesse che hanno riportato i più alti livelli di maturità digitale. Il settore pubblico, quello dell’energia e quello dell’intrattenimento sono invece i meno preparati alla rivoluzione dell’intelligenza artificiale.
Le imprese europee si dicono più preparate nell’ottemperare alle norme sull’IA rispetto a business di altre regioni del mondo , anche se, rispetto alle aziende dell’area APAC, sono meno prone a istituire ruoli manageriali per la gestione dell’IA etica.
Come garantire lo sviluppo di un'IA responsabile
In generale c’è confusione su cosa significhi usare l’intelligenza artificiale “responsabilmente", e non c’è chiarezza sulle policy da attuare e gli strumenti migliori da utilizzare.
Nonostante non esista un approccio globale e valido sempre per ogni business, le imprese possono seguire i cinque principi fondamentali dell’IA responsabile per garantire un uso corretto dei modelli e prepararsi alle nuove norme.
Secondo BCG, per garantire la responsabilità è fondamentale definire una persona di riferimento, un “AI ethics officer” a conoscenza dei requisiti tecnici dei modelli, degli obiettivi di business e delle norme da rispettare.
Una figura di questo tipo è in grado di integrare questi elementi per sviluppare una strategia che benefici il business e al contempo rispetti le normative.
Le imprese dovrebbero inoltre sviluppare un framework etico che diventi parte della cultura aziendale e garantisca privacy dei dati, documentazione chiara e soluzioni per mitigare gli errori dei modelli. Due terzi degli intervistati da BCG hanno affermato di stare già creando framework di questo tipo utilizzando un approccio purpose-driven, nel quale i designer e gli sviluppatori conoscono gli obiettivi del sistema.
Una strategia del genere permette inoltre di condividere il funzionamento del sistema coi propri utenti, garantendo trasparenza nell’uso dei dati e nella generazione dei risultati.
Al centro dei processi non c’è solo l’IA, ma anche e soprattutto la componente umana. Quasi due terzi delle imprese è convinta che i sistemi di IA dovrebbero aumentare e non sostituire le capacità umane; per questo è importante implementare meccanismi di feedback e revisioni per rimanere sempre aggiornati sulle problematiche dei tool.
Ciò è utile anche per individuare i problemi il prima possibile e impedire che raggiungano la produzione. Le imprese in grado di monitorare il comportamento dei sistemi durante tutto il ciclo di vita sono quelle che riescono a ridurre i rischi di errore e guadagnare maggiore fiducia da parte degli utenti.
Infine, BCG ricorda che la definizione di un’IA responsabile nasce e migliora grazie alla collaborazione di diverse realtà. Condividere obiettivi e best practice è il modo migliore sia per massimizzare il valore dei sistemi, sia per rimanere aggiornati sulle ultime norme e non farsi trovare impreparati.
Le pratiche per l’IA responsabile sono diventate fondamentali, ma molte imprese non ne hanno ancora colto i veri benefici. Il momento per agire è adesso: le aziende, diventando parte di un ecosistema più grande, possono migliorare le performance dei propri sistemi e incentivarne l’affidabilità.