Opinioni Demistificare il rischio nell'intelligenza artificiale
5' 11''
18/12/2025

L'IA può potenziare il lavoro, ma senza controlli può trarre in inganno rapidamente: servono supervisione umana, governance e framework solidi.

Demistificare il rischio nell'intelligenza artificiale

L'intelligenza artificiale sta rivoluzionando il modo in cui lavoriamo, ma dietro l'entusiasmo per le sue capacità si nascondono rischi concreti che i professionisti della sicurezza informatica non possono più ignorare. Mentre strumenti come ChatGPT, Gemini e Claude diventano compagni quotidiani di milioni di lavoratori, dalla registrazione di riunioni alla gestione del rischio cyber, emerge una domanda cruciale: stiamo davvero controllando questa tecnologia o ci stiamo lasciando dominare da essa? La risposta non è semplice e richiede una riflessione profonda sul ruolo dell'essere umano nell'era dell'IA generativa.

Il paradosso dell'efficienza: quando la velocità incontra l'imprecisione

Le allucinazioni degli algoritmi rappresentano uno dei problemi più insidiosi dell'intelligenza artificiale contemporanea. Nonostante l'impressionante velocità con cui questi sistemi elaborano informazioni, i modelli di diffusione e le tecniche di generazione del codice come i "transformer" utilizzati nei Large Language Models presentano ancora limiti significativi nella validazione dei dati. Questo significa che una risposta può sembrare convincente ma essere completamente errata, un rischio inaccettabile quando si tratta di decisioni critiche come diagnosi mediche o valutazioni quantitative del rischio su sistemi essenziali.

Il fattore umano rimane quindi indispensabile. Prima di prendere decisioni rilevanti in ambito aziendale o sanitario, è necessario che uno specialista valuti i risultati forniti dall'IA, indipendentemente da quanto sofisticato sia il sistema utilizzato.

Tre fasi critiche che i professionisti devono conoscere

Dal punto di vista della sicurezza informatica, comprendere l'architettura operativa dell'IA è fondamentale. Un modello di intelligenza artificiale opera attraverso tre fasi distinte: l'inserimento dei dati in una richiesta, la valutazione di questi dati attraverso un modello di addestramento che coinvolge un'intera infrastruttura, e infine la consegna del risultato. È proprio su questo processo che gli esperti di cybersecurity devono concentrare la propria attenzione, analizzando ogni fase dal punto di vista della protezione dei dati.

Le organizzazioni devono interrogarsi su quanto sia opportuno limitare e fidarsi di una soluzione basata sull'IA. Privacy, pregiudizi algoritmici, equità e trasparenza sono questioni che hanno già attirato l'attenzione dei professionisti della sicurezza informatica, soprattutto considerando i dati sensibili che vengono elaborati quotidianamente.

Framework e standard: la bussola per navigare nell'incertezza

Fortunatamente, il settore ha risposto a queste sfide sviluppando una serie di framework specifici per la gestione del rischio legato all'intelligenza artificiale. Tra i più rilevanti emergono il NIST RMF AI, il SAIF di Google, lo standard ISO 42001, l'AI Control Matrix (AICM) e l'AI Model Risk Management Framework della Cloud Security Alliance. Per chi si occupa di threat intelligence, MITRE ATLAS rappresenta uno strumento prezioso, mentre per gli sviluppatori di applicazioni IA l'OWASP Top 10 LLMs illustra le vulnerabilità più comuni nel campo AI/ML.

L'IA può accelerare il lavoro, ma senza controlli rischia di fuorviare rapidamente

Il NIST AI RMF 1.0, in particolare, si concentra sul gruppo di persone, organizzazione ed ecosistema coinvolti, articolandosi in quattro fasi: Govern (coltiva una cultura del rischio), Map (contestualizza il rischio identificato e classifica gli asset), Measure (identifica, valuta e mitiga il rischio) e Manage (prioritizza i rischi secondo l'impatto). La possibilità di integrarlo con il NIST CSF per i controlli di cybersecurity, unitamente alla sua gratuità, lo rende particolarmente interessante.

La matrice dei 243 controlli per l'IA in cloud

L'AI Control Matrix (AICM) merita un'attenzione particolare: contiene ben 243 obiettivi di controllo suddivisi in 18 domini di sicurezza, permettendo di valutare tutti i pilastri di sicurezza di una soluzione IA, specificamente in ambiente cloud. Questo framework si integra con l'AI-CAIQ, che copre standard come BSI AIC4 Catalog, NIST AI RMF e ISO 42001. Non è un caso che questa enfasi sul cloud sia così marcata: qualsiasi soluzione IA robusta richiede enormi capacità di elaborazione ed energia, risorse che solo i data center possono fornire, come dimostrano i massicci investimenti delle grandi aziende tecnologiche nell'espansione di nuove infrastrutture in tutte le regioni.

Comprendere profondamente i concetti di cloud computing e le responsabilità condivise diventa quindi essenziale per implementare una soluzione IA con precisione, sicurezza e capacità di soddisfare le esigenze aziendali, aumentando la competitività dell'organizzazione.

Le competenze che fanno la differenza

Una sfida cruciale riguarda la formazione dei professionisti della cybersecurity. Questi esperti devono acquisire competenze specifiche sulla tecnologia AI/ML, comprendendo gli aspetti tecnici dell'architettura, i modelli di addestramento utilizzati, tecniche come il RAG (retrieval-augmented generation) che propongono miglioramenti al modello, e l'applicazione della strategia di sicurezza informatica appropriata. Il CISO e il team di cybersecurity, insieme ad altri reparti coinvolti, devono prestare particolare attenzione ai controlli in aree chiave: dati, infrastruttura, modello, applicazione, assurance e governance.

La responsabilità condivisa delle applicazioni IA in ambiente cloud rappresenta un altro fattore determinante. I principi di sicurezza dei modelli GenAI e delle rispettive applicazioni devono considerare attentamente come verrà eseguito il modello: GenAI come applicazione (Public, SaaS), GenAI come piattaforma (IaaS o PaaS), o costruzione di una propria applicazione IA (IaaS, on premises). Con l'aiuto dei framework menzionati, diventa possibile mappare, ordinare e gestire i rischi nella strategia IA adottata.

Dal teoria alla pratica: un esperimento concreto

Un esempio pratico illustra le potenzialità dell'IA quando utilizzata con cognizione di causa. Utilizzando la soluzione Anthropic (claude.ai), è possibile costruire applicazioni robuste semplicemente applicando creatività: richiedendo la creazione di una soluzione completa di Cyber Risk Management (GRC) che rispetti best practice come PCI-DSS, NIST, CRI e ISO 27001, il sistema è in grado di generare l'intero back-end. Un progetto che tradizionalmente richiederebbe mesi può essere ridotto a poche settimane, a seconda dell'investimento e dello sforzo della forza lavoro coinvolta.

Certificazioni per costruire competenze solide

Per chi desidera approfondire professionalmente questo ambito, esistono certificazioni specifiche che possono aggiungere valore significativo alla carriera. La Cloud Security Alliance ha recentemente lanciato la certificazione Trusted AI Safety Expert (TAISE), altamente raccomandata per chi vuole comprendere ed esplorare l'architettura e i principali meccanismi di protezione nelle soluzioni AI/ML. Questa certificazione offre una radice più completa nell'ambito tecnico, incorporando anche la gestione del rischio e la governance negli ambienti cloud, che rappresentano il mondo reale in cui l'IA opera.

Parallelamente, la certificazione AAISM di ISACA presenta un approccio interessante dal punto di vista della governance del rischio e della sicurezza in AI/ML. Le due certificazioni si completano a vicenda, e spetta al professionista valutare l'alternativa migliore da seguire in base ai propri obiettivi di carriera. Il messaggio finale è chiaro: non abbandonare la saggezza e la conoscenza, perché saranno loro a proteggerti in questo panorama tecnologico in rapida evoluzione.

Fonte: csoonline.com

Condividi questo contenuto