Un modello di intelligenza artificiale sviluppato dalla società statunitense Anthropic è in grado di identificare e sfruttare autonomamente vulnerabilità zero-day in tutti i principali sistemi operativi e browser, con un tasso di successo del 72,4% nella generazione di exploit funzionanti. Il modello, denominato Mythos, non sarà rilasciato al pubblico: il rischio per le infrastrutture digitali globali è stato giudicato troppo elevato persino dai suoi stessi creatori.
Il dato del 72,4% merita una contestualizzazione precisa: il modello precedente di Anthropic, Claude Opus 4.6, registrava un tasso di successo appena superiore allo zero per cento nelle stesse attività. Un salto qualitativo senza precedenti nella storia recente della cybersicurezza, che trasforma un sistema di intelligenza artificiale in quello che gli esperti del settore definirebbero un motore autonomo di zero-day — ovvero vulnerabilità sconosciute ai produttori del software colpito e quindi non ancora corrette.
Le implicazioni economiche e geopolitiche sono immediate. La capacità di individuare falle critiche nei sistemi di grandi aziende tecnologiche, banche e infrastrutture pubbliche ha un valore di mercato stimato in miliardi di dollari: i broker di zero-day operano su mercati grigi e neri dove una singola vulnerabilità critica può valere da centinaia di migliaia a milioni di dollari. Rendere questa capacità accessibile a un'intelligenza artificiale autonoma ridisegna completamente il profilo di rischio per istituzioni finanziarie, governi e operatori di infrastrutture critiche — settori già nel mirino delle autorità di vigilanza europee nell'ambito della normativa DORA (Digital Operational Resilience Act).
Anziché procedere al rilascio, Anthropic ha avviato il cosiddetto Project Glasswing, un'iniziativa a distribuzione controllata che prevede l'accesso a una versione preliminare del modello per un gruppo selezionato di partner industriali. L'elenco dei partecipanti è significativo: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks. A questi si aggiungono circa 40 organizzazioni invitate a partecipare a una caccia alle vulnerabilità nei propri sistemi, con un sostegno economico fino a 100 milioni di dollari in crediti d'uso e 4 milioni in donazioni dirette a organizzazioni di sicurezza open-source.
La profondità tecnica delle vulnerabilità identificate rende la questione ancora più delicata. Tra i casi documentati dai 22 ricercatori firmatari del rapporto pubblicato da Anthropic figura un exploit per browser che ha concatenato quattro vulnerabilità distinte, includendo tecniche avanzate di heap spray e bypass dei sandbox. Il sistema ha inoltre individuato autonomamente una falla nel server NFS di FreeBSD che consentiva accesso root completo a utenti non autenticati, articolando una catena ROP da 20 elementi distribuita su più pacchetti di rete. Una delle vulnerabilità risolte risaliva a 27 anni fa, presente nel sistema operativo OpenBSD.
Anthropic ha dichiarato di essere nel processo di divulgazione responsabile delle migliaia di vulnerabilità ad alta e critica severità identificate dal modello. Questo processo — noto nel settore come responsible disclosure — prevede la notifica ai produttori del software interessato prima di rendere pubblica la falla, consentendo il rilascio di una patch correttiva. La dimensione quantitativa del problema, tuttavia, solleva interrogativi sulla capacità dell'industria di assorbire un simile volume di segnalazioni in tempi utili.
Il modello di governance scelto da Anthropic — sviluppare uno strumento potenzialmente destabilizzante e poi gestirne l'accesso attraverso una cerchia ristretta di grandi operatori tecnologici — ripropone un dibattito strutturale sull'industria dell'intelligenza artificiale: chi decide quali tecnologie sono troppo pericolose per il mercato aperto, e su quali basi viene costruita quella catena di fiducia selettiva che esclude ricercatori indipendenti, pubbliche amministrazioni e piccole imprese dalla possibilità di difendersi con gli stessi strumenti usati dai potenziali attaccanti?