Google ha presentato al Google Cloud Next '26 una strategia di difesa informatica basata su agenti di intelligenza artificiale, integrando nuove capacità nei propri sistemi di sicurezza cloud per rispondere all'accelerazione delle minacce generata da Anthropic Mythos, il modello linguistico avanzato che promette un aumento significativo delle vulnerabilità sfruttabili. L'annuncio ridisegna l'approccio alla sicurezza aziendale, spostando il baricentro dall'analisi umana all'automazione agentiva.
Il contesto che spinge questa mossa è tutt'altro che teorico. Le segnalazioni di accessi non autorizzati legate a Mythos, emerse già nella fase di anteprima limitata, hanno accelerato la pressione sui team di sicurezza operativa — i cosiddetti SOC (Security Operations Center) — già sotto stress per il volume crescente di CVE (Common Vulnerabilities and Exposures) da gestire quotidianamente. Google sta essenzialmente scommettendo che il fattore umano, da solo, non è più scalabile come prima linea di difesa.
Sul piano operativo, la società ha annunciato tre nuovi agenti AI integrati in Google Security Operations: un agente per la caccia alle minacce (threat hunting), uno per l'ingegneria del rilevamento (detection engineering) e un terzo per il contesto di terze parti. I primi due sono già in anteprima, il terzo è in arrivo. Google ha dichiarato che il suo agente di triage esistente ha già elaborato oltre cinque milioni di alert, riducendo il tempo medio di analisi da trenta minuti a circa un minuto grazie al modello Gemini.
Parallelamente, la società ha ampliato l'integrazione con Wiz, la piattaforma di sicurezza multicloud acquisita nel 2024, posizionandola come infrastruttura connettiva tra ambienti eterogenei: da AWS e Azure fino alle piattaforme SaaS e agli studi di agenti AI. Francis deSouza, COO di Google Cloud e presidente dei prodotti di sicurezza, ha dichiarato che Wiz supporta ora Databricks e nuovi ambienti come AWS Agentcore, Microsoft Azure Copilot Studio e Salesforce Agentforce, garantendo visibilità indipendentemente dagli strumenti scelti dai team di sviluppo.
Tra le novità più significative figura l'AI-BOM (AI Bill of Materials), un inventario di tutti i componenti AI utilizzati in un'organizzazione — modelli, framework, plugin per ambienti di sviluppo integrato — pensato come risposta pratica al fenomeno dello shadow AI: l'uso non autorizzato di strumenti AI da parte degli sviluppatori, spesso al di fuori dei perimetri approvati dall'IT aziendale. In Europa, questo tema si intreccia direttamente con i requisiti di trasparenza e tracciabilità previsti dall'AI Act, rendendo l'AI-BOM uno strumento potenzialmente rilevante anche dal punto di vista della conformità normativa.
Google ha anche introdotto Agent Identity e Agent Gateway, strumenti di governance per il cosiddetto "agentic web": lo spazio in cui agenti AI operano autonomamente tra sistemi diversi, spesso senza supervisione diretta. A completare il quadro, l'integrazione rafforzata di Model Armor contro rischi come il prompt injection e la perdita di dati, oltre a Google Cloud Fraud Defense per distinguere tra esseri umani, bot e agenti AI nei flussi di lavoro.
Sul fronte della gestione delle identità, Google ha annunciato una semplificazione del sistema IAM (Identity and Access Management) per ridurre la complessità dei permessi, storicamente uno dei vettori di attacco più sfruttati nelle architetture cloud ibride.
Resta aperta una questione strutturale: quanto di questa architettura di difesa agentiva sarà efficace contro minacce generate, a loro volta, da agenti AI avversariali? La corsa agli armamenti tra sistemi automatizzati di attacco e difesa ridisegna il perimetro del rischio informatico aziendale, con implicazioni non ancora pienamente quantificabili per le funzioni di compliance, assicurazione e governance del rischio nelle grandi organizzazioni.