Il vice presidente degli Stati Uniti Kamala Harris ha definito una nuova policy che mira a mitigare i rischi dell'intelligenza artificiale e sfruttarne i benefici all'interno delle agenzie governative. Il documento, pubblicato dall'Ufficio per la Gestione e il Bilancio, sarà un componente centrale dell'Ordine Esecutivo di Biden pubblicato lo scorso ottobre.
"Questa direzione multiforme per i dipartimenti e le agenzie federali si basa sui risultati ottenuti dall'amministrazione Biden-Harris per garantire che l'America sia all'avanguardia nell'innovazione responsabile dell'IA" si legge nel comunicato.
Tra le altre indicazioni, la nuova policy impone che per garantire la responsabilità, la leadership e il corretto monitoraggio dei sistemi di IA, le agenzie governative dovranno designare uno o più Chief AI Officer e stabilire una board di governance con a capo un vice segretario o una carica equivalente per coordinare l'uso dell'intelligenza artificiale tra le diverse agenzie.
"Abbiamo chiesto a tutte le agenzie federali di designare un responsabile dell'IA con l'esperienza, la competenza e l'autorità necessarie per supervisionare tutte le tecnologie di IA utilizzate dall'agenzia, per assicurarci che l'IA sia usata in modo responsabile, comprendendo che dobbiamo avere leader di alto livello in tutto il nostro governo che siano specificamente incaricati di supervisionare l'adozione e l'uso dell'IA" ha dichiarato Harris ai giornalisti.
Le board delle singole agenzie dovranno essere definite e presentate all'Office of Management and Budget entro il 27 maggio.
Rendere l'IA sicura e trasparente
La nuova normativa prevede salvaguardie aggiuntive che dovranno essere implementate da tutte le agenzie federali entro il 1° dicembre 2024. L'obiettivo è garantire che l'IA venga usata in modi che non ledono i diritti e la sicurezza dei cittadini. Le agenzie dovranno inoltre fornire al Governo e agli utenti stessi tutte le informazioni su come utilizzano i sistemi di IA e sul funzionamento degli algoritmi.
Le nuove indicazioni del Governo comprendono una serie di attività obbligatorie per misurare in maniera attendibile l'impatto dell'intelligenza artificiale sugli utenti e mitigare i rischi di possibili discriminazioni e pregiudizi negli algoritmi.
Se un'agenzia non è in grado di applicare queste misure di salvaguardia dovrà sospendere l'uso del sistema di IA, a meno che la board decisionale non sia in grado di dimostrare che, interrompendo l'utilizzo del sistema, nascano dei rischi per la sicurezza dei cittadini o impedimenti alle operazioni critiche dell'agenzia.
Al fine di garantire la trasparenza dell'IA, la normativa richiede alle agenzie di censire annualmente i casi d'uso dei propri sistemi e renderli pubblici, oltre a notificare i cittadini di eventuali esenzioni del sistema dal rispetto delle nuove norme con le relative motivazioni.
Infine, le agenzie dovranno rilasciare codice, modelli e dati di IA di proprietà del governo, laddove tali rilasci non rappresentino un rischio per il pubblico o per le operazioni governative.
Il Governo invita le agenzie a espandere e rafforzare il proprio pool di talenti dedicato all'IA; per fare ciò, l'amministrazione Biden-Harris ha in programma di assumere 100 professionisti di IA e dedicare un budget di 5 milioni di dollari a un programma di training di intelligenza artificiale per le agenzie federali.
"Con queste azioni, l'Amministrazione sta dimostrando che il Governo sta dando l'esempio come modello globale per l'uso sicuro, protetto e affidabile dell'IA" conclude la normativa.
Nonostante l'aggiunta di nuove linee guida, però, il Governo degli Stati Uniti non ha ancora delle vere e proprie leggi per regolare l'uso dell'IA. La nuova normativa è comunque un buon passo avanti verso la gestione e l'uso responsabile dei sistemi di intelligenza artificiale, ma c'è ancora molta strada da fare.