Oltre la metà dei tre milioni di agenti di intelligenza artificiale operativi nelle grandi aziende di Stati Uniti e Regno Unito non sono attivamente monitorati né protetti da misure di sicurezza adeguate. È quanto emerge da uno studio condotto a dicembre 2024 dalla piattaforma di gestione API Gravitee, che ha intervistato 750 dirigenti IT e professionisti del settore attraverso Opinion Matters. L'indagine rivela come la velocità di deployment degli agenti AI superi largamente la capacità dei team di sicurezza di implementare governance efficaci, esponendo le organizzazioni a rischi significativi di violazioni dei dati e incidenti di sicurezza.
Il fenomeno assume dimensioni preoccupanti se contestualizzato: l'88% degli intervistati ha dichiarato di aver sperimentato o sospettato incidenti legati alla sicurezza o alla privacy causati da agenti AI negli ultimi dodici mesi. La media di agenti non monitorati si attesta al 53%, con una media di 36,9 agenti AI per singola azienda. Il dato aggregato di tre milioni di agenti operativi si basa su una estrapolazione che considera circa 8.250 grandi imprese britanniche e 77.000 statunitensi con oltre 250 dipendenti, configurando una forza lavoro virtuale superiore all'intero organico globale di Walmart.
L'analisi critica dei numeri solleva interrogativi metodologici e sostanziali. L'estrapolazione da un campione di 750 intervistati a una stima globale di tre milioni di agenti presenta margini di incertezza significativi, mentre il tasso dell'88% di incidenti sospetti o confermati appare straordinariamente elevato. David Shipley, responsabile della società canadese di formazione sulla sicurezza Beauceron Security, va oltre le stime dello studio: secondo lui la percentuale reale di agenti non monitorati supera il 53% dichiarato, evidenziando come il problema sia strutturalmente sottostimato dall'industria.
La metafora del Titanic utilizzata da Shipley offre una chiave di lettura efficace della situazione attuale. Come l'equipaggio della nave sapeva di navigare nella stagione degli iceberg ma confidava nelle tecnologie di rilevamento e nei compartimenti stagni, oggi le organizzazioni adottano agenti AI a ritmi insostenibili confidando nella capacità dei team IT di intervenire in caso di problemi. La differenza cruciale: i compartimenti stagni del Titanic presentavano difetti strutturali sconosciuti all'epoca, mentre i limiti matematici e l'inaffidabilità intrinseca degli Large Language Model che alimentano gli agenti AI sono documentati e noti alla comunità scientifica.
Manish Jain, direttore della ricerca presso Info-Tech Research Group, introduce un elemento prognostico: entro il 2028 il numero di agenti AI globali potrebbe superare quello dei dipendenti umani. La società di ricerca sottolinea come molte organizzazioni non sappiano quanti agenti possiedano, dove operino o a quali dati accedano. Questa cecità organizzativa deriva dalla proliferazione di strumenti low-code e dalla sperimentazione informale che bypassano i controlli IT tradizionali, creando quella che Jain definisce non "AI ribelle" ma "AI invisibile".
Rory Blundell, amministratore delegato di Gravitee, ha dichiarato che l'ipotesi di lavoro che ha motivato lo studio era verificare se il deployment degli agenti avesse superato le capacità di governance aziendale. I risultati confermano questa tesi, con casi documentati di agenti che eliminano codebase, divulgano informazioni confidenziali o generano dati falsi. Nonostante l'indagine si sia limitata a Stati Uniti e Regno Unito, Blundell ha specificato che la problematica è globale, osservata anche nella solida base clienti europea dell'azienda, dove peraltro normative come il GDPR e l'AI Act dell'Unione Europea impongono requisiti più stringenti sulla trasparenza e la governance algoritmica.
La prospettiva di Info-Tech Research suggerisce un cambio di paradigma: considerare gli agenti AI non più come semplici assistenti digitali ma come entità operative con credenziali delegate ampie, accesso persistente e responsabilità indefinite. Questo profilo li trasforma nella nuova versione della minaccia insider, particolarmente quando dispongono di privilegi eccessivi. La governance tradizionale basata su approvazioni preventive dei modelli risulta insostenibile dato il volume crescente, rendendo necessario un sistema di supervisione continua a runtime con guardrail strategici iniziali piuttosto che controlli puntuali che frenerebbero l'innovazione.
Resta da chiedersi se l'industria sia disposta ad affrontare questa contraddizione fondamentale: la promessa di produttività esponenziale attraverso l'automazione intelligente si scontra con l'incapacità dimostrata di implementare controlli adeguati. La velocità di adozione guidata dalla competizione di mercato sta creando un debito di sicurezza che potrebbe materializzarsi in incidenti sistemici. Quanto dovrà essere grave il primo disastro su larga scala prima che governance e deployment trovino un equilibrio sostenibile?