Opinioni LLM e disinformazione: un framework per mitigare i rischi
2' 23''
25/01/2023

La diffusione degli LLM aumenta il rischio di campagne di disinformazione; OpenAI ha proposto un framework per mitigare le conseguenze.

LLM e disinformazione: un framework per mitigare i rischi

La diffusione dei Large Language Models (LLM) porta con sé molti vantaggi, ma anche importanti sfide. Gli LLM possono essere usati per automatizzare la creazione di testi falsi e diffondere disinformazione. L'obiettivo, perseguito da governi, organizzazioni o anche singoli individui, è influenzare uno specifico target e alterarne il sentiment, così da ottenere un vantaggio economico e sociale.

OpenAI ha collaborato coi ricercatori del centro per la sicurezza le tecnologie emergenti dell'Università di Georgetown e dello Stanford Internet Observatory per definire un framework per l'analisi e la mitigazione delle potenziali minacce derivanti da un uso errato dei modelli linguistici.

memyselfaneye - Pixabay
LLM fake news

La compagnia ha stilato una serie di possibili azioni da intraprendere per combattere le cosiddette "operazioni di influenza" volte a distorcere l'opinione pubblica e diffondere fake news.

Come l'IA può influenzare gli utenti

Usare un language model per creare disinformazione e veicolare l'opinione pubblica riduce notevolmente i costi e i tempi: la creazione dei testi avviene in maniera automatica e veloce. I modelli di IA, inoltre, permettono di generare contenuti personalizzati in real time e offrono una scalabilità senza pari.

Infine, il contenuto stesso dei testi può rivelarsi molto più persuasivo rispetto a quello scritto da un umano, soprattutto quando egli non possiede i requisiti linguistici o culturali per influenzare un certo tipo di target. 

Jimmy Chan - Pexels
LLM Disinformazione

I language model diventeranno un alleato molto potente per la propaganda e la manipolazione dell'opinione pubblica: man mano che la tecnologia si diffonderà, sarà sempre più semplice creare disinformazione e distorcere il pensiero comune.

Mitigare l'impatto delle operazioni d'influenza

Mitigare il rischio e l'impatto delle operazioni di disinformazione attuate attraverso gli LLM è possibile: esistono diversi modi per agire sia sull'efficacia del modello, sia sulla sensibilità del pubblico.

Per prima cosa è possibile agire sul funzionamento del modello stesso, per esempio usando dati "radioattivi" per capire se un dataset è stato utilizzato durante la fase di training, oppure sviluppando modelli in grado di basarsi sui fatti e individuare potenziali fake news. 

Una volta che il modello è pronto all'uso, sarebbe opportuno definire restrizioni e norme di utilizzo; inoltre è opportuno agire sui contenuti condivisi sul web sviluppando soluzioni per identificare i contenuti generati dall'IA e piattaforme che richiedono meccanismi come il proof of personhood per pubblicare un contenuto

Camilo JImenez - Unsplash
LLM proof of personhood

Infine è fondamentale investire sulla formazione degli utenti per renderli capaci di distinguere ciò che è falso da ciò che non lo è, fornendogli eventualmente strumenti pensati per individuare testi falsi.

Presto i language model diventeranno d'uso comune e sarà sempre più difficile distinguere i testi scritti da un umano da quelli generati dall'IA. È importante, quindi, individuare strategie di mitigazione per neutralizzare le campagne di disinformazione o perlomeno ridurne gli impatti sulla società. 

Potrebbe interessarti anche

Approfondimenti

Gli LLM danno risposte meno accurate agli elettori quando conversano in spagnolo

Una recente indagine dell'AI Democracy Projects ha dimostrato che gli LLM forniscono risposte errato o incomplete più sp...

Opinioni

Gli LLM possono risolvere le sfide della robotica general purpose?

Con la diffusione dell'intelligenza artificiale e il potenziamento degli LLM, gli esperti di robotica sono tornati a chi...

Approfondimenti

Le tecnologie che abilitano la generazione di contenuti

Dietro l'IA generativa ci sono diversi approcci che abilitano la generazione di contenuti e si adattano ciascuno a task...

News

Almawave presenta Velvet, modello di IA open source, multilingua e multimodale

Almwave e Cineca hanno annunciato lo sviluppo congiunto di Velvet, un modello italiano open source, multimodale e multil...