L’intelligenza artificiale può alterare le opinioni degli utenti che la usano? Secondo una ricerca si tratta di uno scenario che potrebbe verificarsi nel breve termine.
Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson e Mor Naaman della Cornell University hanno pubblicato uno studio che analizza in che modo l’interazione con un chatbot può influenzare l’opinione degli utenti su un determinato argomento, e quanto pesano gli errori nel dataset nel processo di condizionamento.
Il test ha coinvolto un campione di 1500 persone alle quali è stato chiesto di scrivere un testo dove rispondevano alla domanda: “I social media sono positivi per la società?”. A una parte degli utenti è stato richiesto di scrivere il paragrafo facendosi aiutare da un chatbot addestrato su dati relativi alla questione, ma con una particolarità: metà degli utenti hanno usato un assistente addestrato prevalentemente su dataset che esprimevano opinioni positive sui social, mentre l’altra metà si è appoggiata a un chatbot addestrato su opinioni negative sulla questione.
L’assistente non era progettato per rispondere alla domanda generando del testo, ma solo per offrire spunti e completare le frasi scritte dagli utenti.
Stando ai risultati del test, i partecipanti supportati dal chatbot in favore dei social media sono stati più propensi a esprimere la stessa opinione, e viceversa, rispetto a chi non ha utilizzato l’aiuto dell’assistente.
Il confronto è stato eseguito raccogliendo le opinioni dei singoli partecipanti prima della prova, e confrontandole poi col testo scritto.
I risultati mostrano anche un dettaglio interessante: se è vero che la maggior parte dei partecipanti non hanno accettato a occhi chiusi i suggerimenti dell’assistente, è anche vero che chi ha impiegato di meno a eseguire il task è stato influenzato più degli altri dall’opinione del modello, a dimostrazione del fatto che i tool di IA generativa andrebbero usati con la massima consapevolezza e attenzione.
A stupire è anche il fatto che, non sapendo del bias presente nei dati, i partecipanti hanno ritenuto il modello affidabile e competente: “Anche se il modello è stato configurato per supportare uno specifico aspetto del dibattito, la maggior parte dei partecipanti ha affermato che i suggerimenti del modello erano bilanciati e ragionevoli” si legge nel paper.
Secondo lo studio, i modelli di IA generativa con forti opinioni nei dati di addestramento possono effettivamente influenzare l’opinione delle persone. Ciò apre a numerosi scenari di rischio dove gli utenti, in base al tool che utilizzano, possono essere condizionati a supportare determinate idee e favorire specifici interessi politici e commerciali.
“Il danno in cui sono incorsi i partecipanti interagendo con l’assistente di scrittura nel nostro studio è stato minimo. Considerando le più ampie implicazioni etiche dei nostri risultati, siamo preoccupati da un uso improprio degli strumenti”.
Secondo i ricercatori è necessario instaurare il prima possibile un dibattito su come mitigare il rischio prima che vada fuori controllo.