L'intelligenza artificiale può aiutare a identificare i pregiudizi nelle notizie che altrimenti non sarebbero visibili: in un nuovo studio, i ricercatori della McGill University di Montreal hanno utilizzato un sistema automatico per generare notizie sulla pandemia COVID-19 utilizzando i titoli degli articoli della Canadian Broadcast Corporation (CBC) come input.
Hanno poi confrontato i risultati ottenuti tramite la generazione automatica con le news che erano effettivamente presenti sui mezzi di comunicazione nello stesso periodo.
I risultati mostrano come la copertura della CBC era meno focalizzata sull'emergenza medica e più attenta alle personalità e alla geopolitica.
Andrew Piper, professore alla McGill University, ha commentato: “Riportare eventi del mondo reale richiede scelte complesse, comprese le decisioni su quali avvenimenti e personalità sono al centro della scena. Confrontando ciò che è stato riportato con ciò che avrebbe potuto essere riportato, il nostro studio fornisce una prospettiva sulle scelte editoriali fatte dalle agenzie di stampa e dai mezzi di comunicazione di massa”.
Prospettive differenti
Secondo i ricercatori, la valutazione di queste dinamiche è fondamentale data la stretta relazione tra inquadramento dei media, opinione pubblica e politica del governo.
L'IA ha visto COVID-19 principalmente come un'emergenza sanitaria e ha interpretato gli eventi privilegiando gli aspetti biomedici, mentre la copertura fornita dalla CBC tendeva a concentrarsi sulle persone invece che sulla malattia.
La copertura della CBC è stata anche più positiva del previsto, dato che si trattava di una grave crisi sanitaria: questa positività aiuta a minimizzare la paura del pubblico.
Molti studi cercano di comprendere (ed evitare, per quanto possibile) i pregiudizi insiti negli strumenti basati sull’IA, c'è anche l'opportunità di sfruttarla come strumento per rivelare i pregiudizi dell'espressione umana.
I ricercatori non affermano che l'IA stessa sia imparziale. Ma piuttosto che eliminare il pregiudizio, come molti ricercatori cercano di fare, vogliono invece cercare di capire come e perché il pregiudizio si formi.
Per i ricercatori, questo lavoro è solo la punta dell'iceberg, aprendo nuove strade di studio in cui l'intelligenza artificiale può essere utilizzata non solo per guardare al comportamento umano passato, ma anche per anticipare le azioni future. Ad esempio, nella previsione di potenziali esiti politici o giudiziari.
Sil Hamilton, un assistente ricercatore del professor Piper, sta guidando un gruppo al lavoro su un progetto che utilizza l'intelligenza artificiale per modellare il processo decisionale della Corte Suprema americana. Il ricercatore ha spiegato: “Dato il comportamento giudiziario passato, come potrebbero i giudici rispondere a futuri casi cardine o casi più vecchi che vengono ridiscussi? Speriamo che i nuovi sviluppi nell'IA possano aiutare”.