L’Unione Europea è finalmente giunta a un punto d’accordo sui contenuti dell’Artificial Intelligence Act. La notizia, condivisa dal network di notizie europeo Euractiv, arriva dopo mesi di difficili negoziazioni sulla proposta di legge.
L’accordo è arrivato lo scorso 27 aprile, ma per diventare legge effettiva l’AI Act dovrà prima passare per un voto della commissione interna il prossimo 11 maggio e poi, al netto di rallentamenti, per il voto plenario previsto per metà giugno.
Le indicazioni dell’AI Act
Secondo quanto condiviso dal report di Euractiv, la commissione ha discusso a lungo sul destino dei cosiddetti “foundation models”, ovvero una categoria di modelli general purpose di cui fa parte anche ChatGPT. Il comitato europeo ha imposto norme molto stringenti su questo tipo di modelli, richiedendo che lo sviluppo dei sistemi rispetti i diritti fondamentali condivisi dalle leggi europee, prima fra tutti la libertà di espressione.
La commissione Europea ha continuato a lavorare anche sulle pratiche considerate proibite perché prone a rischi non accettabili. Se all’inizio l’idea era di vietare tutti gli strumenti di monitoraggio delle comunicazioni interpersonali, adesso la proposta si è ridimensionata.
La commissione ha vietato l’uso di software di IA per l’identificazione biometrica in tempo reale: gli strumenti potranno essere usati soltanto ex-post per reati gravi e previa approvazione del giudice.
Vietato anche l’uso di modelli per il riconoscimento delle emozioni nei settori di applicazione delle leggi, della gestione dell’accesso alle frontiere, del lavoro e dell'istruzione.
Euractiv riporta anche una modifica alla classificazione dei sistemi "ad alto rischio": rispetto al precedente Annex III che definiva i sistemi più a rischio, la commissione ha chiarito che un modello rientra in questa categoria quando pone un rischio significativo di danno alla salute, sicurezza o ai diritti fondamentali di una o più persone.
L’Unione Europea definisce il “rischio significativo” come “il risultato della combinazione di gravità, intensità, probabilità di occorrenza e durata dei suoi effetti, e l’abilità di colpire uno o più individui o un particolare gruppo di persone”.
La commissione ha inasprito i limiti per i modelli ad alto rischio, in particolare per l’elaborazione di dati sensibili come l’orientamento sessuale o l’identità religiosa. La valutazione dei dati deve essere effettuata in un ambiente controllato e non possono essere trasmessi a terze parti; i proprietari del modello devono inoltre documentare nel dettaglio i motivi per cui hanno bisogno di trattare questi dati.
La commissione ha inoltre confermato una serie di principi che rappresenterà lo standard dei modelli: essi riguardano indicazioni sulla privacy dei dati, la solidità tecnica dei sistemi, la trasparenza, la necessità di supervisione umana, l’equità e la non-discriminazione.
“Ora abbiamo un accordo per cui ogni gruppo della commissione dovrà supportare i compromessi concordati senza possibilità di presentare ulteriori modifiche” ha affermato un parlamentare europeo in contatto con Euractiv.
L’AI Act, atteso da molti per regolamentare l’uso dei sistemi generativi, sarà il primo set di norme per la gestione dei modelli di intelligenza artificiale. In tanti, anche al di fuori dall’Europa, osservano con attenzione l’evolversi di una regolamentazione dagli impatti globali.