L'intelligenza artificiale sta ridisegnando i confini tra pubblico e privato in un'Italia ancora impreparata a gestirne le complesse implicazioni. Mentre il dibattito pubblico oscilla tra entusiasmo acritico e timori apocalittici, si fa strada la necessità di un'analisi più approfondita e sistematica delle dinamiche che caratterizzano l'adozione di queste tecnologie nelle nostre istituzioni. La questione non è tanto se utilizzare l'IA nella Pubblica Amministrazione, ma come farlo in modo responsabile, evitando la creazione di nuove forme di dipendenza tecnologica e garantendo che il potere decisionale rimanga nelle mani delle istituzioni democratiche invece di migrare verso i giganti tecnologici.
Il paradosso dell'innovazione pubblica nell'era digitale
La Pubblica Amministrazione italiana si trova oggi davanti a un bivio: da un lato la pressione per modernizzarsi e migliorare l'efficienza attraverso soluzioni tecnologiche avanzate, dall'altro la mancanza delle competenze e delle risorse necessarie per sviluppare internamente tali strumenti. Il modello di outsourcing tecnologico è diventato quasi una scelta obbligata, frutto di decenni di politiche che hanno progressivamente ridotto la capacità del settore pubblico di essere protagonista dell'innovazione.
A differenza di quanto accaduto in altri periodi storici, quando lo Stato ha guidato grandi rivoluzioni tecnologiche e industriali, l'approccio attuale riflette una visione neoliberista che relega il pubblico al ruolo di cliente piuttosto che di produttore. Questo crea una situazione in cui la PA, pur essendo formalmente il decisore, diventa in realtà dipendente dalle soluzioni fornite dal mercato privato, spesso sviluppate secondo logiche e priorità diverse da quelle del servizio pubblico.
Quando l'algoritmo diventa decisore pubblico
Il problema si fa particolarmente acuto quando parliamo di sistemi di deep learning, che per loro natura operano attraverso correlazioni statistiche non sempre trasparenti. Questi sistemi possono generare discriminazioni e distorsioni sistemiche, il cosiddetto "bias algoritmico", che rischia di riprodurre o addirittura amplificare disuguaglianze esistenti nella società.
La scuola accademica si divide tra chi ritiene questo problema strutturalmente inseparabile dalle tecnologie di IA e chi invece sostiene la possibilità di sviluppare sistemi eticamente orientati. Quest'ultimo approccio, per quanto ottimista, si scontra con la realtà di un mercato dominato da pochi attori globali, le cui priorità economiche non sempre coincidono con l'interesse pubblico.
La vulnerabilità istituzionale nell'ecosistema dei dati
L'Italia si trova ad affrontare questa transizione tecnologica in una posizione di particolare fragilità. La dipendenza da fornitori esterni per sistemi di IA comporta non solo questioni tecniche ma anche un potenziale trasferimento di potere decisionale. Quando un'amministrazione adotta un sistema di intelligenza artificiale, sta implicitamente delegando parte delle sue funzioni decisionali a un algoritmo che spesso funziona come una "scatola nera", difficile da comprendere e controllare.
Il GDPR europeo stabilisce che il trattamento dei dati da parte della PA dev'essere strettamente legato a finalità di interesse pubblico, ma questa normativa si scontra con la realtà di sistemi che, per funzionare efficacemente, richiedono quantità sempre maggiori di dati. Si crea così un cortocircuito in cui l'amministrazione rimane formalmente responsabile di decisioni che, nella sostanza, vengono sempre più determinate da algoritmi su cui ha un controllo limitato.
Verso una sovranità tecnologica consapevole
Le recenti notizie di contatti sempre più stretti tra decisori politici e giganti tecnologici evidenziano come questa non sia una questione puramente tecnica, ma profondamente politica. Non si tratta di immaginare complotti o strategie di controllo deliberate, ma piuttosto di riconoscere che esistono asimmetrie strutturali tra chi fornisce la tecnologia e chi la utilizza.
La normativa europea sull'IA rappresenta un primo tentativo di regolamentare questo settore, classificando le applicazioni in base al rischio e imponendo requisiti specifici. Tuttavia, una regolamentazione efficace non può limitarsi a contenere i danni, ma deve promuovere un approccio proattivo basato su principi di "compliance by design".
L'Italia, con la sua tradizione amministrativa e il suo patrimonio di dati pubblici, potrebbe sviluppare un modello distintivo di adozione dell'IA nel settore pubblico, che metta al centro la trasparenza e la responsabilità democratica. Questo richiede investimenti in competenze interne, partnership strategiche e soprattutto una visione chiara di come la tecnologia debba servire i valori fondamentali del servizio pubblico piuttosto che semplicemente sostituirsi ad esso.