La diffusione dei Large Language Models (LLM) porta con sé molti vantaggi, ma anche importanti sfide. Gli LLM possono essere usati per automatizzare la creazione di testi falsi e diffondere disinformazione. L'obiettivo, perseguito da governi, organizzazioni o anche singoli individui, è influenzare uno specifico target e alterarne il sentiment, così da ottenere un vantaggio economico e sociale.
OpenAI ha collaborato coi ricercatori del centro per la sicurezza le tecnologie emergenti dell'Università di Georgetown e dello Stanford Internet Observatory per definire un framework per l'analisi e la mitigazione delle potenziali minacce derivanti da un uso errato dei modelli linguistici.
La compagnia ha stilato una serie di possibili azioni da intraprendere per combattere le cosiddette "operazioni di influenza" volte a distorcere l'opinione pubblica e diffondere fake news.
Come l'IA può influenzare gli utenti
Usare un language model per creare disinformazione e veicolare l'opinione pubblica riduce notevolmente i costi e i tempi: la creazione dei testi avviene in maniera automatica e veloce. I modelli di IA, inoltre, permettono di generare contenuti personalizzati in real time e offrono una scalabilità senza pari.
Infine, il contenuto stesso dei testi può rivelarsi molto più persuasivo rispetto a quello scritto da un umano, soprattutto quando egli non possiede i requisiti linguistici o culturali per influenzare un certo tipo di target.
I language model diventeranno un alleato molto potente per la propaganda e la manipolazione dell'opinione pubblica: man mano che la tecnologia si diffonderà, sarà sempre più semplice creare disinformazione e distorcere il pensiero comune.
Mitigare l'impatto delle operazioni d'influenza
Mitigare il rischio e l'impatto delle operazioni di disinformazione attuate attraverso gli LLM è possibile: esistono diversi modi per agire sia sull'efficacia del modello, sia sulla sensibilità del pubblico.
Per prima cosa è possibile agire sul funzionamento del modello stesso, per esempio usando dati "radioattivi" per capire se un dataset è stato utilizzato durante la fase di training, oppure sviluppando modelli in grado di basarsi sui fatti e individuare potenziali fake news.
Una volta che il modello è pronto all'uso, sarebbe opportuno definire restrizioni e norme di utilizzo; inoltre è opportuno agire sui contenuti condivisi sul web sviluppando soluzioni per identificare i contenuti generati dall'IA e piattaforme che richiedono meccanismi come il proof of personhood per pubblicare un contenuto.
Infine è fondamentale investire sulla formazione degli utenti per renderli capaci di distinguere ciò che è falso da ciò che non lo è, fornendogli eventualmente strumenti pensati per individuare testi falsi.
Presto i language model diventeranno d'uso comune e sarà sempre più difficile distinguere i testi scritti da un umano da quelli generati dall'IA. È importante, quindi, individuare strategie di mitigazione per neutralizzare le campagne di disinformazione o perlomeno ridurne gli impatti sulla società.