Opinioni LLM e disinformazione: un framework per mitigare i rischi
Marina Londei
2' 21''
25/01/2023

La diffusione degli LLM aumenta il rischio di campagne di disinformazione; OpenAI ha proposto un framework per mitigare le conseguenze.

LLM e disinformazione: un framework per mitigare i rischi

La diffusione dei Large Language Models (LLM) porta con sé molti vantaggi, ma anche importanti sfide. Gli LLM possono essere usati per automatizzare la creazione di testi falsi e diffondere disinformazione. L'obiettivo, perseguito da governi, organizzazioni o anche singoli individui, è influenzare uno specifico target e alterarne il sentiment, così da ottenere un vantaggio economico e sociale.

OpenAI ha collaborato coi ricercatori del centro per la sicurezza le tecnologie emergenti dell'Università di Georgetown e dello Stanford Internet Observatory per definire un framework per l'analisi e la mitigazione delle potenziali minacce derivanti da un uso errato dei modelli linguistici.

memyselfaneye - Pixabay
LLM fake news

La compagnia ha stilato una serie di possibili azioni da intraprendere per combattere le cosiddette "operazioni di influenza" volte a distorcere l'opinione pubblica e diffondere fake news.

Come l'IA può influenzare gli utenti

Usare un language model per creare disinformazione e veicolare l'opinione pubblica riduce notevolmente i costi e i tempi: la creazione dei testi avviene in maniera automatica e veloce. I modelli di IA, inoltre, permettono di generare contenuti personalizzati in real time e offrono una scalabilità senza pari.

Infine, il contenuto stesso dei testi può rivelarsi molto più persuasivo rispetto a quello scritto da un umano, soprattutto quando egli non possiede i requisiti linguistici o culturali per influenzare un certo tipo di target. 

Jimmy Chan - Pexels
LLM Disinformazione

I language model diventeranno un alleato molto potente per la propaganda e la manipolazione dell'opinione pubblica: man mano che la tecnologia si diffonderà, sarà sempre più semplice creare disinformazione e distorcere il pensiero comune.

Mitigare l'impatto delle operazioni d'influenza

Mitigare il rischio e l'impatto delle operazioni di disinformazione attuate attraverso gli LLM è possibile: esistono diversi modi per agire sia sull'efficacia del modello, sia sulla sensibilità del pubblico.

Per prima cosa è possibile agire sul funzionamento del modello stesso, per esempio usando dati "radioattivi" per capire se un dataset è stato utilizzato durante la fase di training, oppure sviluppando modelli in grado di basarsi sui fatti e individuare potenziali fake news. 

Una volta che il modello è pronto all'uso, sarebbe opportuno definire restrizioni e norme di utilizzo; inoltre è opportuno agire sui contenuti condivisi sul web sviluppando soluzioni per identificare i contenuti generati dall'IA e piattaforme che richiedono meccanismi come il proof of personhood per pubblicare un contenuto

Camilo JImenez - Unsplash
LLM proof of personhood

Infine è fondamentale investire sulla formazione degli utenti per renderli capaci di distinguere ciò che è falso da ciò che non lo è, fornendogli eventualmente strumenti pensati per individuare testi falsi.

Presto i language model diventeranno d'uso comune e sarà sempre più difficile distinguere i testi scritti da un umano da quelli generati dall'IA. È importante, quindi, individuare strategie di mitigazione per neutralizzare le campagne di disinformazione o perlomeno ridurne gli impatti sulla società. 

Potrebbe interessarti anche

Opinioni

Gli LLM possono risolvere le sfide della robotica general purpose?

Con la diffusione dell'intelligenza artificiale e il potenziamento degli LLM, gli esperti di robotica sono tornati a chi...

Approfondimenti

Le tecnologie che abilitano la generazione di contenuti

Dietro l'IA generativa ci sono diversi approcci che abilitano la generazione di contenuti e si adattano ciascuno a task...

News

Almawave presenta Velvet, modello di IA open source, multilingua e multimodale

Almwave e Cineca hanno annunciato lo sviluppo congiunto di Velvet, un modello italiano open source, multimodale e multil...

Approfondimenti

LLM e incidenti di sicurezza: come proteggere password e secrets

Gli LLM sono strumenti molto potenti, ma espongono le organizzazioni a rischi concreti di sicurezza legati alla divulgaz...