Approfondimenti Un’etichetta di trasparenza per i sistemi di decisione automatici
Dario Orlandi
2' 57''
17/03/2023

Una nuova ricerca ha delineato un sistema di trasparenza contestuale per favorire la comprensione dei meccanismi alla base degli ADS.

Un’etichetta di trasparenza per i sistemi di decisione automatici

Un team di ricercatori, guidato da Mona Sloane della NYU Tandon School of Engineering, ha realizzato un nuovo studio dedicato alla trasparenza contestuale (contextual transparency) che è stato pubblicato Nature Machine Intelligence.

La ricerca introduce il concetto di trasparenza contestuale, una sorta di “etichetta nutrizionale” che dovrebbe accompagnare i risultati forniti da qualsiasi sistema decisionale automatizzato (ADS) al fine di rendere espliciti i criteri utilizzati dagli algoritmi o da altri processi tecnologici dell'ADS in situazioni specifiche.

L’articolo si apre con una provocazione: LinkedIn Recruiter, uno strumento di ricerca utilizzato dai reclutatori professionisti per trovare candidati adatti alle posizioni aperte, funzionerebbe meglio se i reclutatori sapessero esattamente come LinkedIn genera le sue risposte alle query di ricerca.

LinkedIn Recruiter è un esempio di ADS nel mondo reale; per far sì che i reclutatori utilizzino al meglio LinkedIn Recruiter, i ricercatori propongono di implementare un framework di trasparenza contestuale che permetta loro di comprendere esattamente come LinkedIn genera le sue risposte alle query di ricerca.

Unsplash
Linkedin

Tre principi cardine

Per costruire la trasparenza contestuale, i ricercatori raccomandano l’applicazione di tre principi base, ognuno dei quali si basa su un approccio relativo a una disciplina accademica.

Questi principi sono volti a rendere espliciti i criteri utilizzati dagli algoritmi e da altri processi tecnologici dell'ADS, in modo che i reclutatori possano comprendere meglio le decisioni prese dal sistema e utilizzare al meglio le sue funzioni.

Il primo principio è denominato Social Science for Stakeholder Specificity e ha l’obbiettivo di identificare i professionisti che si affidano a un particolare sistema ADS, come esattamente lo usano e quali informazioni devono conoscere riguardo al sistema per svolgere meglio il loro lavoro.

Il secondo principio è definito Engineering for ADS Specificity, e mira a comprendere il contesto tecnico dell'ADS utilizzato: diversi tipi di ADS, infatti, operano con ipotesi, meccanismi e vincoli tecnici differenti. Questo principio richiede una comprensione sia dell'input, ossia i dati utilizzati nel processo decisionale, sia dell'output, come cioè la decisione viene restituita.

Il terzo principio, infine, è Design for Transparency- and Outcome-Specificity; ha lo scopo di comprendere il legame tra la trasparenza e i risultati che il sistema ADS fornirebbe idealmente. Nel reclutamento, ad esempio, il risultato potrebbe portare a un pool più diversificato di candidati, facilitato da un modello di classificazione spiegabile.

Mona Sloane
Mona Sloane, ricercatrice senior presso il NYU Center for Responsible AI.

Un’ipotesi di funzionamento

Lo studio ha esaminato come la trasparenza contestuale potrebbe funzionare in LinkedIn Recruiter, dove i reclutatori utilizzano operatori booleani per costruire le query di ricerca.

I ricercatori hanno scoperto che i reclutatori non si fidano ciecamente delle classifiche derivate dagli annunci e controllano spesso i risultati del ranking per verificarne l'accuratezza, modificando anche le parole chiave.

Per rispondere alle esigenze di trasparenza dei reclutatori, i ricercatori suggeriscono che l'etichetta della trasparenza contestuale includa fattori passivi e attivi.

I fattori passivi comprendono informazioni rilevanti per il funzionamento degli annunci e la pratica del reclutamento in generale, mentre i fattori attivi includono informazioni specifiche sulle query di ricerca.

L'etichetta verrebbe inserita nel flusso di lavoro degli utenti di LinkedIn Recruiter, fornendo loro informazioni che consentirebbero sia di valutare il grado con cui i risultati classificati soddisfano l'intento della loro ricerca originale, sia di perfezionare la query per generare risultati migliori.

Secondo i ricercatori, l’implementazione di strumenti di trasparenza contestuale è un approccio utilizzabile per rispondere ai requisiti di trasparenza dell'IA che dovrebbero essere imposti nelle future regolamentazioni allo studio sia negli Stati Uniti sia in Europa

Potrebbe interessarti anche

Tecnologia

L'AI di RealRate classifica le aziende partendo dai bilanci

RealRate propone classifiche settoriali generate da un modello di intelligenza artificiale che analizza e pesa i princip...

Opinioni

Explainable AI: l'importanza della fiducia nei modelli

Nello sviluppare modelli di IA e machine learning è fondamentale considerare la trasparenza e la comprensibilità per ins...

Tecnologia

A.I. Verify: Creare fiducia nell'intelligenza artificiale

Singapore sta sperimentando un framework e un toolkit di test per aiutare le industrie a essere più trasparenti sulla lo...

Approfondimenti

I professionisti sanitari non sono del tutto convinti dall'IA

L'IA può supportare molte attività del mondo sanitario, ma i professionisti del settore chiedono più controlli e una mag...