Opinioni Explainable AI: l'importanza della fiducia nei modelli
1' 46''
26/01/2023

Nello sviluppare modelli di IA e machine learning è fondamentale considerare la trasparenza e la comprensibilità per instaurare fiducia negli utenti,

Explainable AI: l'importanza della fiducia nei modelli

Nell'era dell'intelligenza artificiale gli utenti hanno bisogno di fiducia per utilizzare i sistemi. Spesso i modelli sono delle scatole nere di cui non si conosce il funzionamento e, se qualcosa va storto, è difficile spiegare ai clienti le motivazioni dell'errore. 

Un modello di IA, soprattutto se usato in ambiti in cui anche il piccolo sbaglio può causare conseguenze importanti, deve essere "spiegabile" (Explainable AI, XAI), ovvero seguire i principi di trasparenza, interpretabilità e comprensibilità.

Pixabay
Explainable AI

Gli utenti devono poter conoscere il funzionamento di un sistema e capire perché, a fronte di un input, è emerso uno specifico output; essi devono avere la possibilità di seguire passo per passo il ragionamento eseguito dall'algoritmo per arrivare una determinata previsione.

Modelli comprensibili per instaurare fiducia

Un modello di IA che sia comprensibile è quello che risponde a due domande chiave: quanto è accurato il modello? i risultati ottenuti sono migliori dei precedenti?. Sono due domande molto difficili da indirizzare, in quanto non sempre è possibile confrontare i risultati con elaborazioni precedenti; inoltre, entrambe dipendono fortemente dalla completezza del data set di training.

Sviluppare modelli di IA comprensibili significa scegliere metodi di machine learning facilmente interpretabili, come alberi decisioni, reti bayesiane o modelli lineari sparsi. Anche ridurre il numero di parametri e semplificare l'architettura del modello sono ottime soluzione per aumentarne la comprensibilità.

Mohamed Hassan - Pixabay
Explainable IA machine learning

La XAI è particolarmente utile per operazioni di sorveglianza e image recognition, analisi e previsioni delle vendite al dettaglio e attività di ispezione visiva della qualità nelle catene produttive.

I consumatori hanno bisogno di spiegazioni per fidarsi dei modelli di intelligenza artificiale e accettarne gli esiti. Quando il funzionamento di un sistema non è chiaro, gli utenti non riescono e non possono fidarsi a occhi chiusi dei risultati, soprattutto se impattano sulla loro vita.

I sistemi di IA devono essere interpretabili e inclusivi e devono fornire gli insight necessari per migliorare il funzionamento stesso del modello e la varietà dei dataset di training. Soltanto in questo modo si può costruire la fiducia necessaria per coinvolgere gli utenti. 

Potrebbe interessarti anche

Approfondimenti

Un’etichetta di trasparenza per i sistemi di decisione automatici

Una nuova ricerca ha delineato un sistema di trasparenza contestuale per favorire la comprensione dei meccanismi alla ba...

Tecnologia

L'AI di RealRate classifica le aziende partendo dai bilanci

RealRate propone classifiche settoriali generate da un modello di intelligenza artificiale che analizza e pesa i princip...

Tecnologia

A.I. Verify: Creare fiducia nell'intelligenza artificiale

Singapore sta sperimentando un framework e un toolkit di test per aiutare le industrie a essere più trasparenti sulla lo...

Approfondimenti

I professionisti sanitari non sono del tutto convinti dall'IA

L'IA può supportare molte attività del mondo sanitario, ma i professionisti del settore chiedono più controlli e una mag...