L'intelligenza artificiale sta rivoluzionando il panorama della sicurezza informatica, ma le aziende stanno commettendo un errore fondamentale: credere che i loro team di cybersecurity tradizionali possano gestire le vulnerabilità dei sistemi AI con gli stessi strumenti e approcci utilizzati finora. È l'allarme lanciato da Sander Schulhoff, ricercatore specializzato in sicurezza dell'intelligenza artificiale e autore di una delle prime guide sulla prompt engineering, che ha messo in guardia le organizzazioni su un problema sempre più urgente e sottovalutato.
Durante un'intervista al podcast "Lenny's Podcast" pubblicata domenica, Schulhoff ha evidenziato una verità scomoda: molte aziende non dispongono delle competenze necessarie per comprendere e affrontare i rischi legati all'AI. Il problema non è la mancanza di esperti di sicurezza informatica, ma la natura radicalmente diversa delle vulnerabilità dell'intelligenza artificiale rispetto a quelle dei sistemi software tradizionali.
Quando i modelli linguistici diventano imprevedibili
La metafora utilizzata da Schulhoff è tanto semplice quanto efficace: "Puoi correggere un bug, ma non puoi correggere un cervello". I team di cybersecurity sono addestrati a identificare e risolvere vulnerabilità note, applicando patch e aggiornamenti di sicurezza. Ma i modelli linguistici di grandi dimensioni non funzionano secondo questa logica.
A differenza del software convenzionale, i sistemi di intelligenza artificiale possono essere manipolati attraverso il linguaggio e istruzioni indirette. Un professionista della sicurezza informatica tradizionale potrebbe esaminare un sistema AI cercando difetti tecnici, ma senza porsi la domanda cruciale: cosa succederebbe se qualcuno ingannasse l'intelligenza artificiale spingendola a fare qualcosa che non dovrebbe?
La formazione che manca
Schulhoff, che gestisce una piattaforma di prompt engineering e organizza hackathon di AI red-teaming, sostiene che servano professionisti con competenze ibride. Un esperto che conosca sia la sicurezza AI sia la cybersecurity tradizionale saprebbe, per esempio, come reagire se un modello viene indotto a generare codice malevolo: eseguirebbe il codice in un ambiente isolato, garantendo che l'output dell'AI non comprometta il resto del sistema.
Secondo il ricercatore, è proprio in questa intersezione che si stanno creando le opportunità professionali più promettenti nel campo della sicurezza informatica. La disconnessione tra il funzionamento dell'AI e gli approcci classici alla cybersecurity rappresenta infatti una lacuna che le aziende devono colmare urgentemente.
Il mercato delle startup: promesse eccessive e correzioni imminenti
L'entusiasmo per la sicurezza dell'intelligenza artificiale ha alimentato la nascita di numerose startup che propongono soluzioni di protezione. Tuttavia, Schulhoff si mostra scettico riguardo a molte di queste proposte commerciali. Secondo il ricercatore, diverse aziende stanno vendendo guardrail che promettono protezione completa, ma che in realtà non offrono garanzie reali.
"È una completa menzogna", ha dichiarato senza mezzi termini, riferendosi alle affermazioni secondo cui questi strumenti possono "intercettare tutto". Dato che i sistemi AI possono essere manipolati in innumerevoli modi diversi, queste promesse risultano fuorvianti e destinate a non reggere alla prova dei fatti.
Il ricercatore prevede una correzione di mercato in cui "i ricavi si prosciugheranno completamente per queste aziende di guardrail e red-teaming automatizzato". Nonostante questo, gli investimenti nel settore continuano a crescere: le grandi aziende tecnologiche e i fondi di venture capital stanno riversando capitali significativi in questo ambito, spinti dall'urgenza di mettere in sicurezza i sistemi di intelligenza artificiale.
Gli investimenti miliardari dei colossi tecnologici
L'acquisizione di marzo 2024 rappresenta un esempio emblematico di questa tendenza: Google ha acquistato la startup di cybersecurity Wiz per la cifra record di 32 miliardi di dollari, un'operazione mirata a rafforzare la sicurezza del cloud dell'azienda di Mountain View.
Il CEO di Google, Sundar Pichai, ha riconosciuto apertamente che l'intelligenza artificiale sta introducendo "nuovi rischi" in un momento in cui le configurazioni multi-cloud e ibride stanno diventando sempre più diffuse. "In questo contesto, le organizzazioni cercano soluzioni di cybersecurity che migliorino la sicurezza del cloud e funzionino attraverso più piattaforme cloud", ha sottolineato Pichai.
Come riportato da Business Insider, le crescenti preoccupazioni sulla sicurezza dei modelli AI hanno contribuito ad alimentare un'ondata di startup che propongono strumenti per monitorare, testare e proteggere i sistemi di intelligenza artificiale. Il dibattito ora si concentra su quali di queste soluzioni offrano realmente protezione efficace e quali siano invece destinate a fallire di fronte alla complessità del problema.