News L'Europa a corto di fondi per applicare la legge sull'IA
4' 1''
23/05/2025

L'UE avvia l'implementazione graduale dell'AI Act, ma un consulente avverte: far rispettare la normativa sarà una sfida significativa

L'Europa a corto di fondi per applicare la legge sull'IA

L'Europa si prepara all'applicazione dell'AI Act, ma i nodi vengono al pettine quando si parla di risorse umane ed economiche. La prima legislazione organica al mondo sull'intelligenza artificiale rischia di rimanere sulla carta se gli Stati membri dell'Unione non saranno in grado di garantirne l'effettiva applicazione. Secondo quanto emerso recentemente, le difficoltà finanziarie e la carenza di personale qualificato rappresentano ostacoli concreti che potrebbero minare l'efficacia della normativa, proprio mentre si avvicina la scadenza del 2 agosto per la definizione delle sanzioni nazionali.

La corsa contro il tempo in un contesto di risorse limitate

Durante una conferenza organizzata dalla George Washington University, Kai Zenner, consulente per le politiche digitali del parlamentare europeo Axel Voss, ha lanciato un allarme che non può essere ignorato: "La maggior parte degli Stati membri è praticamente al verde". Una dichiarazione che evidenzia come il problema non sia solo di volontà politica, ma di effettiva capacità operativa delle amministrazioni nazionali.

Le difficoltà non si fermano alla questione economica. Zenner ha sottolineato come le agenzie di protezione dati stiano perdendo talenti nel campo dell'intelligenza artificiale, attirati da offerte economicamente più vantaggiose provenienti dal settore privato. "Questa combinazione di mancanza di risorse finanziarie e di talenti rappresenterà una delle sfide principali nell'applicazione dell'AI Act", ha aggiunto il consulente.

Senza esperti di alto livello, le autorità non potranno nemmeno comprendere ciò che le aziende dichiarano.

Un regolamento con impatto globale

La normativa europea sull'intelligenza artificiale non si limita a disciplinare le attività delle aziende con sede nell'Unione. Anche le imprese straniere che operano nel mercato unico dovranno conformarsi alle nuove regole, rendendo l'AI Act un punto di riferimento normativo potenzialmente globale, in un fenomeno già osservato con il GDPR e noto come "effetto Bruxelles".

L'approccio dell'UE si basa su una classificazione del rischio che distingue tra sistemi a rischio inaccettabile (vietati), alto rischio (soggetti a regole rigorose) e rischio limitato (con obblighi di trasparenza). Tra le tecnologie vietate figurano i sistemi di scoring sociale, le tecnologie che manipolano il comportamento umano attraverso tecniche subliminali e, con alcune eccezioni per le forze dell'ordine, il riconoscimento facciale in tempo reale negli spazi pubblici.

La posta in gioco per i cittadini europei

Approvato nel luglio 2024 dopo anni di negoziati, l'AI Act rappresenta il primo tentativo organico di regolamentare l'intelligenza artificiale a livello sovranazionale. L'obiettivo dichiarato è proteggere la sicurezza e i diritti delle persone, prevenire discriminazioni e danni causati dall'IA, e costruire fiducia in queste tecnologie emergenti, garantendo al contempo privacy e sicurezza.

Per i sistemi considerati ad alto rischio, come quelli utilizzati in ambiti sensibili quali assunzioni, istruzione, sanità o applicazione della legge, sono previsti requisiti stringenti: trasparenza, accuratezza, documentazione dei processi decisionali, test regolari e monitoraggio continuo. Ad esempio, un sistema di intelligenza artificiale utilizzato in ambito ospedaliero per la diagnosi dovrà rispettare standard elevati ed essere aperto a ispezioni.

La sfida dell'implementazione nazionale

Entro il 2 agosto, gli Stati membri dovranno definire le regole per le sanzioni e le multe da applicare in caso di violazione della normativa. Un passaggio cruciale che si scontra con le difficoltà segnalate da Zenner. Senza personale qualificato, le autorità nazionali si troveranno in difficoltà persino nel comprendere le spiegazioni tecniche fornite dalle aziende tecnologiche sulle loro soluzioni di IA.

Il contrasto con altre giurisdizioni è evidente. Mentre l'Europa adotta un approccio rigoroso e basato sulla valutazione del rischio, negli Stati Uniti si osservano tendenze diverse. Il Colorado, ad esempio, dopo aver inizialmente adottato un sistema simile a quello europeo, sta ora valutando una revisione verso una regolamentazione più orientata alla crescita economica e all'innovazione.

La carenza di esperti qualificati rischia di creare un circolo vizioso: meno controlli efficaci significano meno conformità reale, minando alla base gli obiettivi della normativa. D'altra parte, l'Unione Europea ha dimostrato in passato di saper trovare soluzioni creative per l'implementazione di regolamenti complessi, come accaduto con il GDPR.

Un modello per il mondo o un'ambizione irrealizzabile?

L'AI Act europeo ha l'ambizione di diventare un modello normativo globale, ma la sua efficacia dipenderà in larga misura dalla capacità degli Stati membri di tradurre le disposizioni in azioni concrete. I sistemi a rischio limitato, come ChatGPT o altri chatbot, dovranno semplicemente rivelare che i contenuti sono stati generati dall'IA, mentre immagini modificate o create artificialmente dovranno essere chiaramente identificate come tali.

La sfida per i prossimi mesi sarà trovare un equilibrio tra la necessità di applicare rigorosamente la normativa e la realtà di risorse limitate. Potrebbe essere necessario un intervento coordinato a livello europeo per supportare gli Stati membri con minori capacità finanziarie o tecniche, affinché l'AI Act non diventi un insieme di regole applicate in modo disomogeneo attraverso il continente.

In questo scenario complesso, il successo della regolamentazione europea sull'intelligenza artificiale dipenderà tanto dalla volontà politica quanto dalla capacità operativa delle istituzioni chiamate ad applicarla. Il countdown verso agosto è iniziato, e con esso la vera prova per l'ambizioso progetto normativo dell'Unione.

Potrebbe interessarti anche

News

Salvadanaio Remunerato: Satispay diventa banca d'investimento

Semplice, flessibile: ora 5,5 milioni di italiani possono investire con Satispay

News

Gemma, l'IA di Google supera 150 milioni di download

Il modello open-source Gemma di Google supera i 150 milioni di download con oltre 70.000 varianti sviluppate dalla community

News

L'Europa impone l'alfabetizzazione AI: cosa cambia

L'obbligo autonomo di alfabetizzazione per l'IA nell'AI ACT: le FAQ della Commissione Europea chiariscono l'applicazione dell'art. 4