News NIST pubblica un framework per garantire l'affidabilità dei sistemi di IA
2' 15''
06/02/2023

Il NIST ha pubblicato la versione finale del suo framework per individuare e gestire il rischio dei modelli di intelligenza artificiale.

NIST pubblica un framework per garantire l'affidabilità dei sistemi di IA

Il NIST - National Institute of Standards and Technology ha rilasciato la versione finale del suo framework per la gestione del rischio legato all'uso dell'intelligenza artificiale (Artificial Intelligence Risk Management Framework - AI RMF 1.0)

Il framework, sviluppato in collaborazione con ricercatori, organizzazioni e società operanti nell'ambito dell'IA, mira ad aumentare l'affidabilità dei sistemi di intelligenza artificiale, garantendo il rispetto della libertà e dell'uguaglianza dei cittadini e al contempo supportando l'innovazione. 

Seanbatty - Pixabay
gestione del rischio

Il rischio principale legato all'uso dei sistemi di IA riguarda i potenziali impatti negativi derivanti da risultati errati, che possono interessare singoli individui, gruppi e comunità. La metodologia definita dal NIST riduce questo rischio individuando i limiti e le incertezze del modello e aiutando gli sviluppatori ad agire su questi punti deboli.

La guida, che nei progetti del NIST si prefigura come uno standard globale per gli sviluppi, è "pensata per un uso volontario e per migliorare l'abilità di incorporare considerazioni di affidabilità nel design, sviluppo, uso e valutazione di prodotti, servizi e sistemi di IA".

Quattro funzioni per la gestione del rischio

Il framework offre un processo strutturato, flessibile e misurabile per minimizzare i rischi dei modelli e massimizzarne i benefici. L'AI RMF si divide in due parti: la prima contiene indicazioni dettagliate su come le organizzazioni possono inquadrare i rischi dei modelli e definire quali sono le caratteristiche che rendono il sistema affidabile; nella seconda parte invece sono illustrate le quattro funzioni principali del framework - governo, mappatura, misurazione e gestione - per gestire il rischio nella pratica.

La prima funzione aiuta le organizzazioni a definire i ruoli e le responsabilità all'interno del team che supervisiona il funzionamento del modello; oltre a ciò, la funzione aiuta anche a esplicitare il processo decisionale per identificare eventuali errori nel sistema.

La funzione di mappatura aiuta i team a definire e documentare i processi, analizzando il contesto e identificando i limiti del modello e gli impatti nel mondo reale.

Gerd Altmann - Pixabay
gestione rischio

La funzione di misurazione sfrutta la conoscenza acquisita durante la fase di mappatura per misurare e monitorare i rischi e le performance del modello. I benchmark, ottenuti tramite una serie di tool e metodi illustrati nel playbook del NIST, vengono condivisi col team, che si occuperà di agire sul rischio. 

Infine, la funzione di gestione si occupa di allocare le risorse necessarie per gestire i rischi mappati e misurati. Le pratiche definite nelle funzioni precedenti vengono ora applicate per diminuire i rischi e la probabilità di fallimento del modello.

Ogni funzione può essere applicata in qualsiasi contesto e caso d'uso del modello, e durante qualsiasi fase del suo ciclo di vita. 

 

Potrebbe interessarti anche

Approfondimenti

L'80% delle organizzazioni non è pronto ad affrontare i rischi dell'IA

Secondo il report New Generation of risk di Riskconnect, la maggior parte delle organizzazioni non è pronta ad affrontar...

Opinioni

Le aziende devono aumentare la visibilità sulla gen AI

L'intelligenza artificiale generativa ha conquistato i business di tutto il mondo e non ha intenzione di arrestare la su...

Opinioni

La gestione intelligente dei dati riduce il profilo di rischio

Con l'aumento del volume di dati non strutturati è necessarie seguire un approccio olistico per gestire l'archiviazione...

News

Watsonx.governance di IBM aiuta le organizzazioni a cogliere i benefici dell'IA generativa

IBM ha annunciato watsonx.governance. un tool per aiutare le aziende a monitorare l'operatività dei modelli di IA e cont...