Scenario Agenti AI aiutano i criminali negli attacchi cyber
3' 5''
13/02/2026

L'IA rivoluziona le minacce cyber: rapporto di 100 esperti rivela come i criminali automatizzino attacchi informatici grazie a nuove tecnologie.

Agenti AI aiutano i criminali negli attacchi cyber

L'intelligenza artificiale sta modificando profondamente il panorama delle minacce informatiche globali, consentendo ai criminali di automatizzare fasi critiche degli attacchi informatici, pur non avendo ancora raggiunto la capacità di operare in modo completamente autonomo. È quanto emerge dal secondo rapporto annuale dell'International AI Safety, coordinato dall'informatico canadese Yoshua Bengio e redatto da oltre 100 esperti provenienti da 30 paesi diversi.

Il documento rappresenta un campanello d'allarme per il settore della cybersecurity, evidenziando come nell'ultimo anno gli sviluppatori di sistemi di intelligenza artificiale abbiano drasticamente migliorato le capacità delle loro piattaforme di supportare e automatizzare attacchi informatici. La distinzione tra uso difensivo e offensivo di queste tecnologie si assottiglia progressivamente, con implicazioni significative per aziende, istituzioni governative e infrastrutture critiche.

La prova più concreta di questa evoluzione emerge da un caso documentato da Anthropic nel novembre 2025, quando gruppi di cyber-spionaggio cinesi hanno sfruttato lo strumento Claude Code AI per automatizzare la maggior parte degli elementi di attacchi diretti contro circa 30 organizzazioni di alto profilo tra aziende e istituzioni governative. Alcuni di questi attacchi sono andati a segno, segnando un precedente preoccupante nell'uso militarizzato dell'intelligenza artificiale commerciale.

Almeno un incidente reale ha coinvolto l'uso di capacità cyber semi-autonome, con intervento umano solo nei punti di decisione critici

L'analisi del rapporto identifica due ambiti in cui l'intelligenza artificiale si rivela particolarmente efficace per scopi malevoli: la scansione di vulnerabilità software e la scrittura di codice maligno. Durante l'AI Cyber Challenge (AIxCC) di DARPA, una competizione biennale in cui i team hanno sviluppato modelli di IA per individuare vulnerabilità nei software open source alla base delle infrastrutture critiche, i sistemi finalisti hanno identificato autonomamente il 77% delle vulnerabilità sintetiche utilizzate nel round finale.

Sebbene questo esempio riguardi l'uso difensivo dell'intelligenza artificiale, i criminali informatici stanno impiegando modelli simili in chiave offensiva. L'estate scorsa, diversi attaccanti sui forum clandestini hanno dichiarato di utilizzare HexStrike AI, uno strumento open-source di red-teaming, per colpire vulnerabilità critiche negli apparati Citrix NetScaler nel giro di poche ore dalla divulgazione dei problemi da parte del fornitore.

Il mercato nero della criminalità informatica sta rapidamente incorporando queste tecnologie. Modelli di IA specializzati nella scrittura di malware, inclusi ransomware e codice per il furto di dati, vengono scambiati a prezzi accessibili, anche a soli 50 dollari al mese. Questa commoditizzazione abbassa drasticamente le barriere all'ingresso per aspiranti criminali informatici, potenzialmente moltiplicando il numero di attori ostili.

I sistemi di IA non possono ancora eseguire in modo affidabile lunghe sequenze di attacco multi-stadio

La buona notizia, secondo gli autori del rapporto, è che i sistemi di intelligenza artificiale mostrano ancora limitazioni significative nell'esecuzione di attacchi complessi a più fasi senza supervisione umana. Gli errori tipici includono l'esecuzione di comandi irrilevanti, la perdita di traccia dello stato operativo e l'incapacità di recuperare da errori semplici senza intervento umano.

Tuttavia, questa valutazione prudente va contestualizzata alla luce di sviluppi recenti come OpenClaw, l'agente di IA precedentemente noto come Moltbot e Clawdbot, e Moltbook, la piattaforma social sviluppata per agenti di intelligenza artificiale. Questi casi dimostrano come la rapida proliferazione di agenti autonomi possa creare rischi imprevisti, indipendentemente dalle intenzioni iniziali degli sviluppatori.

Il mondo potrebbe non finire con un sofisticato attacco informatico autonomo multi-stadio, ma piuttosto con un singolo agente che sfugge al controllo

La sfida per regolatori e aziende tecnologiche risiede nel bilanciare l'accelerazione dell'innovazione con la necessità di implementare salvaguardie adeguate. L'Unione Europea, con l'AI Act, ha tentato di stabilire un quadro normativo, ma l'applicazione pratica di queste regole a tecnologie in rapida evoluzione rimane complessa. La questione solleva interrogativi fondamentali: fino a che punto le società tecnologiche dovrebbero essere responsabili dell'uso malevolo dei loro strumenti? E quale livello di autonomia dovrebbe essere consentito ai sistemi di IA prima che diventino troppo rischiosi da rilasciare sul mercato?

Condividi questo contenuto