Approfondimenti LLM e incidenti di sicurezza: come proteggere password e secrets
3' 9''
26/02/2024

Gli LLM sono strumenti molto potenti, ma espongono le organizzazioni a rischi concreti di sicurezza legati alla divulgazione di informazioni sensibili.

LLM e incidenti di sicurezza: come proteggere password e secrets

Con la diffusione degli LLM sono aumentati anche i rischi a cui sono esposte le aziende. Nel 2023 L'Open Worldwide Application Security (OWASP) ha aggiornato più volte il suo "Top 10 for Large Language Model Applications", un progetto che mira a educare le organizzazioni sui potenziali rischi legati allo sviluppo di LLM.

Nella lista sono elencate le 10 vulnerabilità più critiche diffuse nelle applicazioni dei modelli linguistici, le quali includono la prompt injection, il leak di dati, il sandboxing inadeguato e l'esecuzione non autorizzata di codice.

Sfruttando queste criticità gli attaccanti possono ottenere le credenziali riservate delle imprese(secret) che consentono di accedere a risorse e applicazioni centrali per il business.

I ricercatori hanno già dimostrato come sia possibile accedere ai secret sfruttando gli LLM: nel 2023 sono stati trovati più di 10 milioni di secret in repository GitHub pubblici, gli stessi che erano stati usati per addestrare Copilot di GitHub; in seguito, un team dell'Università di Hong Kong ha sviluppato un algoritmo che ha generato 900 prompt con lo scopo di interrogare Copilot e fargli rivelare le credenziali. Quando interrogato coi prompt, il tool ha rivelato più di 2.700 secret validi. 

È essenziale che organizzazioni, a partire dagli sviluppatori fino ai manager, siano consapevoli dei rischi a cui sono esposti se non gestiscono correttamente le proprie credenziali. The Hacker News ha condiviso tre consigli per proteggere i secret e i dati sensibili dai rischi degli LLM e contrastare così le principali vulnerabilità dei modelli.

Pixabay
tecnologia

Ruotare i secret

Non è così semplice controllare se i secret sono stati pubblicati sul repository: molti potrebbero essere stati pushati in vecchi commit e inglobati in aggiornamenti successivi, e occorrerebbe analizzare l'intera storia del progetto per capire se e quanto si è davvero a rischio.

Per contenere le conseguenze negative è opportuno ruotare i segreti, ovvero aggiornarli periodicamente. Per modificarli correttamente bisogna sapere dove vengono utilizzati e controllare che, dopo l'aggiornamento, l'accesso ai servizi sia di nuovo disponibile. Una volta ruotati, è necessario disattivare i vecchi secret; in questo modo, anche se gli attaccanti riuscissero ad accedere alle vecchie credenziali, non riuscirebbero a usarle.

Ripulire i dati

Una delle 10 vulnerabilità presenti nella lista dell'OWASP consiste nella divulgazione di dati sensibili: gli LLM, a seguito di particolari prompt, potrebbero inavvertitamente rivelare informazioni confidenziali causando violazioni di privacy e breach di sicurezza.

Il modo migliore per evitare questa situazione è assicurarsi che i modelli non utilizzino i dati sensibili: le informazioni riservate dovrebbero essere accessibili solo a un insieme ristretto di utenti, e non a un modello utilizzabile da tutti o gran parte degli utenti. 

The Hacker News consiglia di utilizzare tool open-source per analizzare i dati prima che vengano forniti agli LLM per la fase di training, con l'obiettivo di individuare e rimuovere eventuali secret e informazioni sensibili. 

Pixabay
tecnologia

Applicare patch e limitare i privilegi

Gli LLM, per quanto avanzati, sono ancora una tecnologia immatura e necessitano di un monitoraggio molto attento. Gli output dei modelli andrebbero sempre controllati e mantenuti aggiornati per evitare che rivelino eventuali vulnerabilità e configurazioni dei sistemi interni, utilizzabili poi dagli attaccanti.

È essenziale mantenere sempre aggiornati i sistemi con le ultime patch di sicurezza: in questo modo si limitano le vulnerabilità e quindi la possibilità che un malintenzionato le sfrutti a suo vantaggio. 

Un altro consiglio fondamentale è di limitare i privilegi delle applicazioni che usano gli LLM e del modello stesso: i sistemi di IA dovrebbero avere accesso solo ed esclusivamente ai dati di cui hanno bisogno. 

Gli LLM sono propensi a commettere errori, avere "allucinazioni" e sono facilmente manipolabili per ottenere informazioni riservate. Le organizzazioni devono utilizzarli attentamente, con tutte le precauzioni del caso, per evitare impatti negativi sulla sicurezza del business.

Potrebbe interessarti anche

Approfondimenti

Gli LLM danno risposte meno accurate agli elettori quando conversano in spagnolo

Una recente indagine dell'AI Democracy Projects ha dimostrato che gli LLM forniscono risposte errato o incomplete più sp...

Opinioni

Gli LLM possono risolvere le sfide della robotica general purpose?

Con la diffusione dell'intelligenza artificiale e il potenziamento degli LLM, gli esperti di robotica sono tornati a chi...

Approfondimenti

Le tecnologie che abilitano la generazione di contenuti

Dietro l'IA generativa ci sono diversi approcci che abilitano la generazione di contenuti e si adattano ciascuno a task...

News

Almawave presenta Velvet, modello di IA open source, multilingua e multimodale

Almwave e Cineca hanno annunciato lo sviluppo congiunto di Velvet, un modello italiano open source, multimodale e multil...