Nell'era dell'intelligenza artificiale gli utenti hanno bisogno di fiducia per utilizzare i sistemi. Spesso i modelli sono delle scatole nere di cui non si conosce il funzionamento e, se qualcosa va storto, è difficile spiegare ai clienti le motivazioni dell'errore.
Un modello di IA, soprattutto se usato in ambiti in cui anche il piccolo sbaglio può causare conseguenze importanti, deve essere "spiegabile" (Explainable AI, XAI), ovvero seguire i principi di trasparenza, interpretabilità e comprensibilità.
Gli utenti devono poter conoscere il funzionamento di un sistema e capire perché, a fronte di un input, è emerso uno specifico output; essi devono avere la possibilità di seguire passo per passo il ragionamento eseguito dall'algoritmo per arrivare una determinata previsione.
Modelli comprensibili per instaurare fiducia
Un modello di IA che sia comprensibile è quello che risponde a due domande chiave: quanto è accurato il modello? e i risultati ottenuti sono migliori dei precedenti?. Sono due domande molto difficili da indirizzare, in quanto non sempre è possibile confrontare i risultati con elaborazioni precedenti; inoltre, entrambe dipendono fortemente dalla completezza del data set di training.
Sviluppare modelli di IA comprensibili significa scegliere metodi di machine learning facilmente interpretabili, come alberi decisioni, reti bayesiane o modelli lineari sparsi. Anche ridurre il numero di parametri e semplificare l'architettura del modello sono ottime soluzione per aumentarne la comprensibilità.
La XAI è particolarmente utile per operazioni di sorveglianza e image recognition, analisi e previsioni delle vendite al dettaglio e attività di ispezione visiva della qualità nelle catene produttive.
I consumatori hanno bisogno di spiegazioni per fidarsi dei modelli di intelligenza artificiale e accettarne gli esiti. Quando il funzionamento di un sistema non è chiaro, gli utenti non riescono e non possono fidarsi a occhi chiusi dei risultati, soprattutto se impattano sulla loro vita.
I sistemi di IA devono essere interpretabili e inclusivi e devono fornire gli insight necessari per migliorare il funzionamento stesso del modello e la varietà dei dataset di training. Soltanto in questo modo si può costruire la fiducia necessaria per coinvolgere gli utenti.