L'intelligenza artificiale si appresta a trasformare il mercato dei servizi alla pubblica amministrazione italiana secondo un modello radicalmente diverso da quello finora adottato: non più strumenti di supporto al funzionario, ma sistemi capaci di produrre direttamente risultati amministrativi. È la tesi centrale di un documento pubblicato da Sequoia Capital, fondo di venture capital tra i più influenti al mondo, intitolato Services: The New Software, che delinea la traiettoria del prossimo ciclo di adozione dell'AI nei mercati dei servizi professionali e pubblici.
Il punto di partenza dell'analisi è un dato strutturale: per ogni euro speso in software, ne vengono spesi sei in servizi — consulenze, outsourcing, personale dedicato, studi professionali. Il software serve a chi fa il lavoro. L'AI, nella sua evoluzione più recente, vuole fare il lavoro direttamente. Questo cambia la natura del mercato indirizzabile e, per la PA italiana, ridisegna il perimetro di rischio organizzativo.
La distinzione concettuale introdotta da Sequoia è quella tra copilota e autopilota. Il primo amplifica il professionista: suggerisce, autocompleta, accelera. La responsabilità resta al funzionario. Il secondo bypassa il professionista: non dice "ti aiuto a istruire la pratica", dice "la pratica è istruita". La differenza non è tecnica, ma commerciale e organizzativa. Fino a oggi il mercato AI per la PA si è mosso quasi esclusivamente sul modello copilota. Ora inizia la fase del modello autopilota.
La PA italiana ha investito anni e miliardi di euro del Piano Nazionale di Ripresa e Resilienza (PNRR) in digitalizzazione: migrazione al cloud, integrazione con la Piattaforma Digitale Nazionale Dati (PDND), attivazione di PagoPA, SPID, CIE. Un percorso che ha digitalizzato i contenitori. Il lavoro intellettuale — istruttorie, atti tipo, verifica di conformità documentale, risposta a istanze standard — è rimasto integralmente in carico agli esseri umani, interni o esternalizzati.
Sequoia identifica nell'outsourcing esistente il punto di ingresso naturale per gli autopiloti. Se un'organizzazione esternalizza già un'attività, ha accettato che possa essere svolta da terzi, ha una voce di budget dedicata e acquista un risultato, non ore di lavoro. La PA italiana esternalizza più di quanto appaia: rendicontazioni PNRR affidate a società di consulenza, supporto legale a studi professionali, recupero crediti e gestione tributi appaltati a soggetti specializzati. Tutte voci di spesa che rappresentano, secondo la logica di Sequoia, i "wedge" — i punti di accesso attraverso cui le aziende AI-native entreranno nel mercato sostituendo i fornitori tradizionali.
Il rischio occupazionale diretto, nel breve periodo, è limitato da vincoli normativi, contrattuali e demografici propri del settore pubblico italiano. Il rischio reale è quello dell'irrilevanza organizzativa: se un autopilota produce le rendicontazioni e l'ufficio interno le valida senza comprenderle, la competenza smette di risiedere nell'amministrazione e migra verso il fornitore esterno. Nel settore privato questo ha già prodotto situazioni critiche. Nel pubblico, dove la firma ha valore giuridico e la responsabilità è personale, le implicazioni sono potenzialmente più gravi.
L'analisi di Sequoia si inserisce in un convergere di posizioni da parte dei principali attori del venture capital americano — Y Combinator e Andreessen Horowitz stanno sviluppando tesi analoghe — secondo cui le prossime grandi aziende non venderanno software ma lavoro direttamente erogato. Il mercato della PA — istruttorie, compliance, atti amministrativi, rendicontazioni — è identificato come uno dei segmenti più ampi, più frammentati e meno presidiati da operatori specializzati.
La risposta operativa per chi governa enti pubblici passa attraverso tre direttrici: mappare i processi interni distinguendo quelli ad alta codificazione — candidati immediati all'automazione — da quelli che richiedono discrezionalità politica e giuridica; costruire in anticipo una governance dei risultati prima che arrivi la proposta commerciale di un fornitore AI; e investire nella formazione di competenze interne sul processo, non solo sullo strumento. L'asset critico del prossimo decennio non sarà chi sa usare l'AI, ma chi capisce abbastanza profondamente il processo da valutare se il risultato prodotto dall'AI è corretto o pericolosamente sbagliato.
Rimane aperta una questione di fondo che il dibattito pubblico italiano ha finora eluso: chi stabilisce i criteri di qualità, accuratezza e responsabilità quando il risultato amministrativo viene prodotto da un sistema autonomo gestito da un soggetto privato? E chi risponde, giuridicamente e politicamente, quando quel risultato è sbagliato?