Approfondimenti Come gestire i rischi di sicurezza dei modelli generativi
Marina Londei
4' 37''
08/05/2023

Gli esperti di sicurezza di Team8 hanno stilato una guida approfondita per individuare e gestire i rischi dell'IA generativa per le aziende.

Come gestire i rischi di sicurezza dei modelli generativi

La diffusione dell’IA generativa ha cambiato profondamente il modo di lavorare e i processi aziendali. Strumenti come ChatGPT, Copilot o Bard hanno semplificato e velocizzato molte attività, ma anche introdotto nuovi rischi per la sicurezza di cui i CISO si devono occupare.

Gli esperti di Team8 hanno redatto una guida per aiutare i leader dei team di cybersecurity a comprendere quali sono i reali rischi e impatti dei modelli generativi e in che modo possono rispondere alle nuove sfide di sicurezza.

I rischi dell’IA generativa

Per affrontare al meglio le nuove sfide tecnologiche i CISO devono prima di tutto comprendere a quali nuovi rischi sono esposte le aziende. 

Uno dei problemi principali riguarda la privacy e confidenzialità dei dati: l’uso dei modelli generativi può comportare in molti casi l’accesso a informazioni aziendali sensibili e confidenziali, forniti in maniera diretta dagli utenti stessi.

Pixabay
intelligenza artificiale

Oltre a essere usati potenzialmente per il training dei modelli, questi dati potrebbero essere condivisi con terze parti nel caso in cui gli strumenti siano integrati in altre applicazioni. La gestione della sicurezza, in questo caso, è affidata completamente ad attori al di fuori dell’organizzazione che potrebbero a loro volta soffrire di data breach o altri attacchi come la prompt injection. 

Nell’usare gli strumenti di IA generativa le aziende stesse devono assicurarsi di rispettare specifiche norme e regolamentazioni relative alla privacy per non incappare in pesanti sanzioni.

I modelli generativi presentano inoltre diversi problemi di copyright e paternità dei risultati: i dataset usati per l’addestramento potrebbero contenere testi o immagini sotto diritto d’autore, sollevando questioni sulla violazione del diritto d’autore.

Errori e imprecisioni nei dati di addestramento si riflettono sulla reputazione aziendale: il rischio è produrre risultati imprecisi, discriminatori o, nel peggiore dei casi, dannosi per singoli individui o gruppi di persone. 

Freepik
intelligenza artificiale

L’IA generativa soffre ancora di molti punti aperti riguardo l’eticità, la trasparenza, l’equità e l’interpretabilità dei risultati; le imprese che ne fanno uso, pur non essendo dirette responsabili degli errori, potrebbero incorrere in problemi legali e di reputazione.

L’uso degli strumenti generativi per velocizzare lo sviluppo software può infine portare a errori nel codice o componenti vulnerabili. Integrare le nuove tecnologie di IA non fa inoltre che aumentare la superficie di attacco e aggiungere ulteriori vulnerabilità ai sistemi. 

Gestire i rischi delle nuove tecnologie

Per massimizzare il valore degli strumenti di IA generativa e garantire al contempo sistemi sicuri è importante sviluppare nuove policy aziendali che descrivano modalità e ruoli per l'utilizzo dei tool.

Gran parte delle indicazioni già esistenti in azienda valgono anche per i modelli generativi, ma andrebbero riviste e aggiornate per comprendere un set di rischi più ampio.

È necessario inoltre predisporre nuovi controlli, soprattutto in contesti nei quali l’IA ha un forte impatto sia sul comportamento dei sistemi che degli utenti. L’introduzione di assistenti intelligenti nella suite di prodotti Microsoft e l’uso di chatbot per l’automazione di numerosi task comporta una gestione dei dati molto diversa rispetto al passato e, come illustrato nei rischi, nuovi problemi di privacy.

Pexels
ChatGPT

La gestione del rischio è un processo che coinvolge diverse figure aziendali oltre ai responsabili di sicurezza e passa per numerose considerazioni.

Manager di business, responsabili della protezione dei dati e dei sistemi informativi devono collaborare con i CISO per identificare e rispondere a diversi temi, tra i quali:

  • chi può usare gli strumenti generativi, per quali scopi e in quali circostanze;
  • quali sono i requisiti per l’uso corretto dei modelli e in che modo sono correlati ai rischi individuati;
  • quali sono gli impatti sulla privacy, la sicurezza e la gestione dei dati;
  • a quali informazioni hanno accesso i tool integrati nei sistemi;
  • chi è incaricato di revisionare e approvare eventuali nuovi utilizzi degli strumenti;
  • quali dispositivi è permesso usare per accedere alle capacità dei modelli;
  • qual è il livello di comprensione circa il funzionamento degli strumenti.

Solo individuando le risposte a queste e altre domande è possibile prendere decisioni informate sull’uso dei modelli di IA generativa. A partire dal quadro ottenuto si possono poi definire le linee guida e i limiti per gli utenti, per esempio aggiungendo restrizioni sull’uso dei contenuti generati o effettuando revisioni puntuali sui risultati.

Per gestire al meglio i rischi dell’IA generativa, i ricercatori di Team8 consigliano in primo luogo di identificare quelli più rilevanti per l’organizzazione e col maggiore impatto; occorre inoltre stabilire nuove policy aziendali e migliorare quelle esistenti per definire il corretto uso degli strumenti generativi e quali utenti possono avere accesso alle funzionalità.

Freepik
policy aziendali

Quando i rischi si fanno troppo elevati, gli esperti consigliano di esaminare alternative on-premise in modo da riportare il controllo all’interno dell’azienda. Se ciò non fosse possibile, diventa opportuno scegliere i provider che offrono le migliori garanzie di protezione e trattamento dei dati.

La corretta adozione delle tecnologie di IA generativa passa anche dalla gestione del rischio: per trarre vantaggi significativi occorre prima creare e implementare policy su misura per l’organizzazione.

I CISO di qualsiasi realtà hanno l’opportunità di definire nuove best practices e plasmare il futuro degli sviluppo dei tool, assicurandosi che l’innovazione rimanga sui binari corretti e non vada fuori controllo.

Potrebbe interessarti anche

Tecnologia

Un modello generativo trasforma in immagini le idee degli stilisti

Un gruppo di ricercatori di tre università italiane ha sviluppato un modello capace di trasformare gli schizzi e i promp...

Scenario

L’IA generativa può cambiare le regole nel settore telco

Un report di GlobalData ha analizzato l’impatto dei sistemi di intelligenza artificiale generativa sul settore delle tel...

Tecnologia

ChatGPT può diventare tossico cambiando alcune opzioni

Una ricerca ha analizzato l’impatto delle impostazioni di sistema sul comportamento di ChatGPT, mostrando come la sua fl...

News

Alibaba presenta la sua IA generativa e sfida ChatGPT

Alibaba ha annunciato il rilascio di Tongyi Qianwen, il suo modello di IA generativa che ben presto verrà integrato in...