Approfondimenti Le regole per sviluppare un'IA responsabile
Marina Londei
3' 39''
11/05/2023

Uno studio di BCG ha individuato la necessità di definire regole per lo sviluppo di IA responsabile che rispetti le normative presenti e future.

Le regole per sviluppare un'IA responsabile

L’elevata potenza dei modelli di intelligenza artificiale ha portato governi e organizzazioni a cercare di definire norme per regolamentarne l’uso. L’obiettivo, come illustrato da BCG, è sviluppare un’IA responsabile che rispetti i principi di trasparenza, privacy, sicurezza, inclusività e responsabilità.

L’introduzione di leggi e linee guida deve da una parte ridurre il rischio di errori e fallimenti, ma dall’altra anche favorire l’innovazione e lo sviluppo di nuovi modelli sempre più precisi.

Le imprese non devono guardare all’IA responsabile come a un impedimento per gli sviluppi, ma al contrario come un modo per migliorare le performance e al contempo rispettare le regolamentazioni introdotte.

Secondo uno studio BCG le aziende impiegano in media tre anni per sviluppare strategie di IA responsabile ed essere considerate effettivamente mature da un punto di vista normativo; vista l’imminente pubblicazione di nuove norme, come l’Artificial Intelligence Act europeo, le organizzazioni devono concentrare i loro sforzi per creare programmi efficaci a supporto dell’IA.

Freepik
strategia IA

Ad oggi le imprese considerate più mature nella gestione dell’IA responsabile sono quelle del settore delle telecomunicazioni e della tecnologia, le stesse che hanno riportato i più alti livelli di maturità digitale. Il settore pubblico, quello dell’energia e quello dell’intrattenimento sono invece i meno preparati alla rivoluzione dell’intelligenza artificiale.

Le imprese europee si dicono più preparate nell’ottemperare alle norme sull’IA rispetto a business di altre regioni del mondo , anche se, rispetto alle aziende dell’area APAC, sono meno prone a istituire ruoli manageriali per la gestione dell’IA etica.

Come garantire lo sviluppo di un'IA responsabile

In generale c’è confusione su cosa significhi usare l’intelligenza artificiale “responsabilmente", e non c’è chiarezza sulle policy da attuare e gli strumenti migliori da utilizzare.

Nonostante non esista un approccio globale e valido sempre per ogni business, le imprese possono seguire i cinque principi fondamentali dell’IA responsabile per garantire un uso corretto dei modelli e prepararsi alle nuove norme.

Secondo BCG, per garantire la responsabilità è fondamentale definire una persona di riferimento, un “AI ethics officer” a conoscenza dei requisiti tecnici dei modelli, degli obiettivi di business e delle norme da rispettare.

Pexels
Ai ethics officer

Una figura di questo tipo è in grado di integrare questi elementi per sviluppare una strategia che benefici il business e al contempo rispetti le normative. 

Le imprese dovrebbero inoltre sviluppare un framework etico che diventi parte della cultura aziendale e garantisca privacy dei dati, documentazione chiara e soluzioni per mitigare gli errori dei modelli. Due terzi degli intervistati da BCG hanno affermato di stare già creando framework di questo tipo utilizzando un approccio purpose-driven, nel quale i designer e gli sviluppatori conoscono gli obiettivi del sistema.

Una strategia del genere permette inoltre di condividere il funzionamento del sistema coi propri utenti, garantendo trasparenza nell’uso dei dati e nella generazione dei risultati.

Al centro dei processi non c’è solo l’IA, ma anche e soprattutto la componente umana. Quasi due terzi delle imprese è convinta che i sistemi di IA dovrebbero aumentare e non sostituire le capacità umane; per questo è importante implementare meccanismi di feedback e revisioni per rimanere sempre aggiornati sulle problematiche dei tool.

Ciò è utile anche per individuare i problemi il prima possibile e impedire che raggiungano la produzione. Le imprese in grado di monitorare il comportamento dei sistemi durante tutto il ciclo di vita sono quelle che riescono a ridurre i rischi di errore e guadagnare maggiore fiducia da parte degli utenti.

Pixabay
Ai utente

Infine, BCG ricorda che la definizione di un’IA responsabile nasce e migliora grazie alla collaborazione di diverse realtà. Condividere obiettivi e best practice è il modo migliore sia per massimizzare il valore dei sistemi, sia per rimanere aggiornati sulle ultime norme e non farsi trovare impreparati. 

Le pratiche per l’IA responsabile sono diventate fondamentali, ma molte imprese non ne hanno ancora colto i veri benefici. Il momento per agire è adesso: le aziende, diventando parte di un ecosistema più grande, possono migliorare le performance dei propri sistemi e incentivarne l’affidabilità.

Potrebbe interessarti anche

Approfondimenti

L'Europol mette in guardia dagli usi illeciti di ChatGPT

L'Europol ha pubblicato i risultati di un'indagine sugli usi criminali di ChatGPT: la situazione è preoccupante e richie...

Approfondimenti

Artificial Intelligence Act: l'UE lavora a una legislazione condivisa

L'Unione Europea lavora a una legislazione condivisa tra gli Stati Membri e continua la sua stretta sull'uso dei modelli...

Opinioni

Come sviluppare modelli generativi sicuri e affidabili

Come sviluppare modelli affidabili e sicuri? Salesforce ha condiviso 5 principi da seguire per garantire lo sviluppo res...