Il rapido progresso delle tecnologie di intelligenza artificiale ha obbligato le istituzioni a prendere provvedimenti per garantire che i nuovi sistemi rispettino la privacy e la sicurezza degli utenti; ciò si sta traducendo in una revisione degli standard di gestione dei dati che imporrà alle aziende di adattare i loro processi di data management.
Mrinal Manohar, co-fondatore e CEO di Casper Labs, spiega che le nuove regolamentazioni potrebbero creare non pochi problemi alle imprese e il rischio di non-compliance è molto elevato. Bisogna quindi che le organizzazioni agiscano subito per rispettare gli ultimi standard; in caso contrario si rischiano non solo sanzioni, ma anche una perdita di reputazione che inficia negativamente sui guadagni.
Affinché l'IA venga utilizzata in maniera sicura e responsabile, e che gli utenti siano fiduciosi in questa nuova tecnologia, le compagnie devono seguire approcci adeguati per tracciare e controllare il modo in cui gestiscono i dati e in cui li forniscono ai sistemi di IA.
Identificare i rischi di privacy
Gli utenti sono sempre più attenti a comprendere quali sforzi stanno facendo le organizzazioni per preservare la privacy dei loro dati, e le normative sono state redatte proprio su questa scia. L'AI Act, per esempio, proibisce tutte le applicazioni che pongono un "rischio inaccettabile" ai dati personali, e negli Stati Uniti si stanno mettendo in pratica controlli simili.
Le aziende che sviluppano o usano sistemi di IA hanno la responsabilità di identificare e rendere conto con chiarezza i tipi di dati con cui i loro prodotti interagiscono e in che modo.
Manohar propone una serie di pratiche per ottenere questa visibilità, come per esempio definire un "inventario di dati" e analizzare come si muovono le informazioni nel flusso operativo, tracciando le origini, la destinazione e le trasformazioni dei dati tra le componenti.
Definire dei parametri per la qualità dei dati
Per garantire l'affidabilità dei sistemi di IA non basta solo avere visibilità sull'origine dei dati e sul loro utilizzo, ma anche sulla loro qualità: per alimentare i tool di intelligenza artificiale servono informazioni accurate, rilevanti e complete, altrimenti la qualità degli output sarà bassa e le risposte saranno ricche di errori.
In questo caso il processo di data validation è fondamentale per validare la bontà delle informazioni e assicurarsi che i sistemi operino coi dati migliori a disposizione, soprattutto quando si tratta di sistemi di settori critici, come il sanitario, in cui un errore può portare a conseguenze disastrose.
Alcune realtà stanno inoltre sperimentando delle reti decentralizzate alimentate dalla blockchain per registrare le caratteristiche dei dati e i loro utilizzi, in modo essere più trasparenti nel rispettare le normative. Manohar spiega che le compagnie possono per esempio creare delle vere e proprie librerie in cui gli utenti possono tracciare i prompt migliori per i singoli casi d'uso; ciò da una parte aumenta la visibilità sui processi, e dall'altra crea un database di conoscenza e di best practice a disposizione dell'intera azienda.
Agire in anticipo
Creare legami di fiducia con gli utenti e rispettare le normative è fondamentale, ma i sistemi di IA evolvono molto velocemente e non è semplice stare al passo con l'innovazione; per questo è essenziale anticipare i problemi e creare dei sistemi robusti e affidabili prima che si presentino anomalie o violazioni.
I rischi dell'IA non vanno sottovalutati e, sottolinea Manohar, le compagnie non dovrebbero aspettare che le normative entrino in vigore per mettere in sicurezza dati e sistemi.
"Se creare fiducia nell'IA è davvero una priorità, la governance dei dati non dovrebbe essere un'aggiunta da prendere in considerazione qualche anno dopo, ma dovrebbe essere intessuta nel tessuto stesso di come l'organizzazione opera oggi" conclude Manohar.