L'intelligenza artificiale è al centro di un confronto strategico globale che coinvolge ordinamenti giuridici, modelli industriali e scelte di politica economica. L'Unione europea ha risposto con il Regolamento (UE) 2024/1689, il cosiddetto AI Act, entrato in vigore nel luglio 2024, mentre Mario Draghi ha recentemente riportato il tema al Politecnico di Milano, legandolo alla stagnazione della produttività europea e al ritardo negli investimenti tecnologici privati.
La posta in gioco è di portata strutturale. Secondo le analisi richiamate da Draghi, la produttività del lavoro nell'Unione europea cresce in modo modesto, il mercato dei capitali resta segmentato e la spesa in ricerca e sviluppo nei settori ad alta intensità tecnologica risulta sistematicamente inferiore a quella dei principali concorrenti globali. L'IA non è un oggetto di fascinazione tecnologica, ma un indicatore della capacità di un sistema economico di reggere la competizione globale nel lungo periodo.
Il dibattito pubblico, tuttavia, tende a semplificare in entrambe le direzioni: chi celebra acriticamente ogni applicazione dell'intelligenza artificiale e chi ne amplifica i rischi in chiave catastrofista. Un contributo utile alla calibrazione del giudizio viene, paradossalmente, dall'esperienza delle generazioni mature, spesso liquidate come tecnologicamente arretrate. Chi ha attraversato professionalmente il passaggio dal lavoro amministrativo cartaceo ai sistemi cloud, dai telefoni a disco alle piattaforme digitali, ha esercitato una forma di competenza adattiva che costituisce una risorsa analitica, non un ostacolo.
L'AI Act adotta una logica basata sul rischio: alcune pratiche sono vietate in quanto classificate come a rischio inaccettabile, altre sono soggette a requisiti stringenti di governance e trasparenza, mentre le applicazioni a impatto limitato beneficiano di prescrizioni più leggere. L'impianto è coerente con la tradizione regolatoria europea, ma genera effetti collaterali rilevanti sul piano economico. I costi di conformità gravano in misura sproporzionata su startup e piccole e medie imprese, che dispongono di risorse legali e di compliance nettamente inferiori rispetto agli operatori globali strutturati.
A questo si aggiunge un ulteriore profilo critico: la sovrapposizione tra AI Act, GDPR e disciplina antitrust produce un campo normativo complesso, nel quale la perimetrazione delle categorie di rischio non è sempre di immediata interpretazione. La giurisprudenza della Corte europea dei diritti dell'uomo — a partire dalla sentenza Engel c. Paesi Bassi del 1976, fino alle decisioni Grande Stevens c. Italia del 2014 e Menarini Diagnostics c. Italia del 2011 — ha chiarito che sanzioni formalmente amministrative ma sostanzialmente punitive ricadono nell'ambito delle garanzie previste dalla Convenzione, inclusi i principi di legalità e determinatezza. Il diritto punitivo europeo deve quindi fare i conti con questa eredità anche nell'applicazione dell'AI Act.
Il confronto internazionale evidenzia la specificità dell'approccio europeo. Gli Stati Uniti puntano su responsabilità ex post, linee guida settoriali e interventi della Federal Trade Commission, con un ecosistema privato ad alta propensione all'investimento. La Cina integra regolazione e politica industriale in piani strategici pluriennali, con lo Stato nel ruolo simultaneo di regolatore, investitore e committente. L'India adotta un approccio "light-touch", orientato all'inclusione digitale. La Russia concentra i vincoli sulle applicazioni militari, lasciando ampi margini alla sperimentazione civile.
Una via alternativa al paradigma attuale passa per tre assi: proporzionalità effettiva degli oneri regolatori, con sandbox sperimentali per le applicazioni a basso rischio; centralità della responsabilità e della tracciabilità delle decisioni automatizzate, anziché moltiplicazione dei controlli preventivi; investimento in capacità istituzionale delle autorità di vigilanza, senza le quali nessun corpus normativo produce effetti concreti. Senza infrastrutture di calcolo e cooperazione pubblico-privato, la competitività europea rimane una dichiarazione d'intenti.
La distinzione proposta da Pier Paolo Pasolini nei suoi Scritti corsari tra sviluppo quantitativo e progresso qualitativo offre una chiave interpretativa che va oltre la retorica dell'innovazione. Applicata all'IA, essa suggerisce che la vera domanda non riguarda la quantità di tecnologia adottata, ma la sua direzione e i valori che ne orientano lo sviluppo. Se l'Europa rinuncia allo sviluppo tecnologico per eccesso di cautela, subisce standard elaborati altrove; se lo insegue senza un quadro valoriale coerente, rischia di replicare modelli che contraddicono i propri fondamenti giuridici. Rimane aperta la questione se le istituzioni europee abbiano la capacità politica — oltre che normativa — di presidiare questa tensione in modo credibile.