L'intelligenza artificiale sta trasformando rapidamente il panorama tecnologico globale, ma chi detiene davvero il controllo di questa rivoluzione digitale? Mentre colossi americani come Google, Microsoft e Meta dominano il settore con sistemi chiusi e opachi, l'Europa cerca di trovare un equilibrio tra innovazione e protezione dei cittadini. Al centro di questo dibattito si trova ora la società francese Mistral, che ha lanciato un'iniziativa controversa proprio mentre spinge per ritardare l'applicazione delle normative europee sull'AI.
La sfida europea al dominio tecnologico americano
Mistral ha presentato giovedì scorso "AI for Citizens", un programma destinato a governi e istituzioni pubbliche per trasformare i servizi pubblici attraverso l'intelligenza artificiale. L'azienda francese critica apertamente come l'AI venga spesso percepita come "qualcosa che accade alle persone e ai paesi, un'inevitabilità al di là della loro influenza che li lascia alla mercé di sistemi chiusi e opachi progettati e gestiti da corporazioni distanti e gigantesche".
Il riferimento alle "corporazioni distanti" appare tutt'altro che casuale. Nel mirino ci sono chiaramente i giganti tecnologici americani che hanno costruito un quasi-monopolio nel settore dell'intelligenza artificiale, lasciando poco spazio alle alternative europee.
Il tentativo di bloccare l'AI Act europeo
Paradossalmente, mentre presenta la sua iniziativa per i cittadini, Mistral si è unita a una coalizione di circa 50 aziende europee che chiedono un rinvio di due anni dell'applicazione dell'AI Act dell'Unione Europea. La legge, che mira a garantire che i sistemi di intelligenza artificiale utilizzati nell'UE siano "sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente", rappresenta il primo tentativo al mondo di regolamentazione completa dell'AI.
L'AI Act applica regolamenti proporzionati ai livelli di rischio: vieta il riconoscimento facciale in tempo reale nei luoghi pubblici, considerato una pratica inaccettabilmente rischiosa, e impone requisiti di governance dei dati e gestione del rischio per i sistemi ad alto rischio.
Una coalizione da 3mila miliardi di dollari
L'iniziativa EU AI Champions, lanciata a febbraio 2025, raggruppa oltre 110 organizzazioni con una capitalizzazione di mercato complessiva superiore ai 3mila miliardi di dollari e più di 3,7 milioni di posti di lavoro in Europa. Tra i firmatari della lettera aperta figurano nomi illustri come Airbus, ASML, Publicis e Siemens Energy, oltre a Mistral.
La loro argomentazione punta sulla competitività europea: "Questo rinvio, insieme a un impegno a dare priorità alla qualità normativa rispetto alla velocità, invierebbe a innovatori e investitori di tutto il mondo un segnale forte che l'Europa è seria riguardo alla sua agenda di semplificazione e competitività".
Le critiche degli osservatori indipendenti
Non tutti condividono questa visione. Bram Vranken del Corporate Europe Observatory ha duramente criticato la richiesta di rinvio: "Ritardare. Mettere in pausa. Deregolamentare. Questo è il playbook lobbistico delle Big Tech per indebolire fatalmente le regole che dovrebbero proteggerci da sistemi di AI distorti e ingiusti".
Vranken sottolinea come i rischi siano tutt'altro che ipotetici, citando esempi concreti: dalla sorveglianza di massa israeliana e le uccisioni di palestinesi a Gaza, alla diffusione di disinformazione durante le elezioni da parte di gruppi di estrema destra e governi stranieri, fino all'uso diffuso di sistemi AI distorti nei programmi di welfare sociale.
Il precedente americano e la risposta europea
Il tentativo europeo di ritardare la regolamentazione dell'AI riecheggia strategie già sperimentate negli Stati Uniti, dove le aziende tecnologiche hanno cercato di convincere i legislatori a concedere una moratoria di dieci anni sulla regolamentazione statale dell'AI. Tuttavia, il Senato americano non ha ceduto a queste pressioni.
Ora tocca all'Europa decidere se seguire la strada della cautela normativa o quella dell'innovazione a tutti i costi. La decisione che verrà presa nei prossimi mesi potrebbe definire non solo il futuro dell'intelligenza artificiale nel continente, ma anche stabilire un precedente globale su come bilanciare progresso tecnologico e protezione dei diritti civili nell'era digitale.