Il mercato globale della cybersecurity sta attraversando una fase di trasformazione radicale, con i criminali informatici che sfruttano l'intelligenza artificiale generativa per accelerare e potenziare le loro operazioni. L'adozione di strumenti AI da parte degli hacker non introduce necessariamente nuove tipologie di attacchi, ma riduce drasticamente i tempi di esecuzione e abbassa le barriere tecniche di accesso, consentendo anche agli operatori meno esperti di lanciare campagne sofisticate su larga scala.
La questione non riguarda tanto l'emergere di minacce inedite quanto l'industrializzazione del crimine digitale. Secondo i dati di ReliaQuest, società specializzata in threat intelligence, il tempo medio tra la scoperta di una vulnerabilità e il suo sfruttamento da parte degli attaccanti è crollato del 62% nell'ultimo anno, passando da 47 a soli 18 giorni. Un'accelerazione che gli analisti attribuiscono direttamente all'impiego di modelli linguistici di grandi dimensioni per l'automazione delle fasi di ricerca e sviluppo degli exploit.
Sul fronte degli attacchi mirati, l'AI generativa sta rivoluzionando il phishing tradizionale. Gli strumenti di machine learning permettono ora di aggregare informazioni da fonti disparate, inclusi i social media, per costruire campagne personalizzate e convincenti su scala industriale. L'approccio non è più quello delle email generiche e mal scritte: i sistemi AI possono analizzare in tempo reale quali messaggi vengono aperti o scartati, modificando automaticamente le strategie per massimizzare i tassi di successo.
Nel settore dello sviluppo malware, l'impatto dell'AI è particolarmente evidente. HP Wolf Security ha documentato nel suo report 2025 come l'attacco XWorm presentasse caratteristiche tecniche tipiche di codice generato da intelligenza artificiale, con descrizioni dettagliate riga per riga e un design HTML quasi identico all'output di ChatGPT 4o. Il gruppo ransomware FunkSec, operatore algerino di ransomware-as-a-service, ha adottato sistematicamente strumenti AI per lo sviluppo di malware, secondo Check Point Research, consentendo anche ad attori inesperti di produrre rapidamente strumenti avanzati.
L'evoluzione più preoccupante riguarda però l'emergere degli agenti autonomi. Diversamente dagli assistenti AI tradizionali, questi sistemi possono eseguire intere catene di attacco senza intervento umano. I ricercatori del CyLab Security & Privacy Institute della Carnegie Mellon hanno dimostrato che modelli come GPT-4o possono pianificare ed eseguire autonomamente attacchi sofisticati contro reti enterprise, simulando intrusioni che replicano fedelmente le modalità operative dei cybercriminali reali.
Il fenomeno dell'LLMjacking rappresenta un'ulteriore evoluzione: i criminali rubano credenziali cloud specificamente per dirottare risorse computazionali costose dedicate ai modelli linguistici, rivendendone l'accesso o utilizzandole per generare codice malevolo aggirando i vincoli delle piattaforme mainstream. Sysdig, vendor di sicurezza cloud-native, segnala che gli attaccanti testano sistematicamente i modelli più recenti per identificare quelli privi di adeguate protezioni, trasformandoli in ambienti senza restrizioni per lo sviluppo di exploit.
Il dark web sta già sperimentando marketplace dedicati agli agenti AI. Molt Road, piattaforma ancora agli esordi, offre un modello in cui agenti autonomi possono creare inserzioni, vendere accesso o capacità operative, coordinare attività e completare transazioni con minimo coinvolgimento umano. Secondo Vectra AI, questo approccio modulare permette di frammentare la catena d'attacco in agenti specializzati e cooperanti, accelerando e scalando le operazioni criminali.
Sul versante dei deepfake, la tecnologia sta compromettendo canali considerati più affidabili come voce e video. Il caso più eclatante ha coinvolto Arup, società di ingegneria, dove un dipendente dell'ufficio finanziario ha autorizzato un trasferimento fraudolento di 200 milioni di dollari di Hong Kong dopo una videoconferenza in cui criminali utilizzavano deepfake per impersonare il CFO britannico della società.
Esistono tuttavia limitazioni tecniche significative. Huntress, società di managed detection and response, documenta frequenti fallimenti di script generati da AI che non riescono a eseguire correttamente i loro obiettivi. Gli esperti sottolineano come l'AI non abbia ancora creato nuove classi di exploit: un attaccante può prototipare rapidamente script sofisticati, ma deve comunque trovarsi in posizione di eseguirli, rispettando le "leggi della fisica" della sicurezza informatica.
La risposta del settore security richiede un ripensamento delle strategie difensive. Forescout raccomanda di trattare l'AI aziendale come qualsiasi piattaforma SaaS ad alto valore, rafforzando gestione delle identità, minimizzando privilegi e monitorando anomalie nell'uso di API e consumi. La partita si gioca sull'asimmetria: chi utilizza l'intelligenza artificiale in modo più efficace, se attaccanti o difensori, determinerà gli equilibri del mercato della cybersecurity nei prossimi anni. Resta da chiedersi se le imprese siano pronte a investire nelle competenze e infrastrutture necessarie per non rimanere indietro in questa corsa agli armamenti tecnologici.