Approfondimenti Messaggi ostili: una sfida per l'analisi del linguaggio
Dario Orlandi
2' 48''
07/02/2023

Un rapporto svela i limiti dell'IA nell'analisi della disinformazione sui social media e propone soluzioni per migliorare le valutazioni delle intenzioni.

Messaggi ostili: una sfida per l'analisi del linguaggio

Un rapporto del Centro di eccellenza per le comunicazioni strategiche della NATO (StratCom COE) ha sottolineato che molti degli strumenti di intelligenza artificiale utilizzati per monitorare i post sui social media analizzano i testi in modo troppo letterale e faticano a rilevare disinformazione e sfumature ostili nei messaggi.

Un team di esperti afferma che la maggior parte dei sistemi di AI utilizzati per stimare l'emozione online si basa su una comprensione del sentiment che non è efficace come previsto.

Il loro studio, pubblicato come parte di una collaborazione tra l'Università di Portsmouth e lo Strategic Communications Centre of Excellence della NATO, esplora i limiti di queste strategie e suggerisce modi per migliorarle.

La ricerca si concentra sull’identificazione dei testi “microaggressivi” che mirano ad attaccare un individuo o un gruppo in modo difficile da identificare dall'IA.

Alexander Gegov, Reader in Computational Intelligence e leader del team dell'Università di Portsmouth, ha dichiarato: “Le microaggressioni sono pericolose sui social media poiché possono essere facilmente recepite da persone con convinzioni simili e aiutare a diffondere messaggi tossici o ostili”.

Analizzare l’intenzione

Stimare le emozioni è impegnativo, ma il rapporto abbiamo dimostra che ci sono molti modi in cui si possono migliorare i meccanismi tradizionali. Secondo Gegov: “è tempo di andare oltre le semplici emozioni polari e insegnare all'intelligenza artificiale a valutare il contesto di una conversazione”.

Gli autori hanno criticato il classificatore di emozioni di Google Jigsaw per la sua incapacità di distinguere tra risposte a commenti tossici e discorsi di odio.

Unsplash
Manifestazione

Sostengono che un approccio noto rhetorical structure theory (RST) sia un modo migliore e più robusto di analizzare le microaggressioni. RST imita il modo in cui il cervello pesa le frasi e assegna importanza a certe parole o costrutti.

I ricercatori portano questo esempio: “Today is pretty bad” (oggi è piuttosto brutto) e “That's a pretty dress” (è un bel vestito) contengono entrambi la parola “pretty”, carino. Ma nel primo caso, il termine serve per intensificare l’intenzione negativa della parola bad.

Djamila Ouelhadj, professore di ricerca operativa e analisi presso l'Università di Portsmouth, ha commentato: “Analizzare il testo da solo non è sufficiente quando si cerca di classificare forme più sottili di incitamento all'odio”.

“Imparare come un individuo ha composto un messaggio offre una fonte di informazioni ricca e non sfruttata che può fornire a un analista la storia di come e perché il messaggio è stato assemblato”, ha concludo Ouelhadj.

Gli autori descrivono l'utilizzo del modello RST per analizzare messaggi e tweet offensivi o anti-occidentali. RST può determinare il livello di radicalizzazione di un gruppo o di un individuo, in base alla loro fiducia e insicurezza.

Unsplash
Online

Il team ha prodotto set di dati sulla microaggressione e li ha testati in inglese e russo. Analizzando 500 messaggi russi da un canale Telegram legato alla propaganda del Cremlino, hanno scoperto che la traduzione AI perde alcune inferenze tossiche. Per ovviare a questo, il documento suggerisce di perfezionare i traduttori online per le lingue specifiche della regione.

L'anno scorso, gli Stati Uniti hanno stanziato oltre mezzo milione di dollari in fondi per lo sviluppo di un modello AI in grado di rilevare e sopprimere automaticamente le microaggressioni sui social media.

Potrebbe interessarti anche

Mercato

AI in Italia: un mercato da 500 milioni di euro

Secondo una ricerca dell’Osservatorio Artificial Intelligence del Politecnico di Milano l'IA è cresciuta del 32% e diven...

Approfondimenti

Data Maturity: Il potenziale dei dati rimane ancora inespresso

Il sondaggio globale di HPE evidenzia la necessità di un cambiamento strategico nella gestione dei dati per liberarne tu...

News

Umano o no? Il classificatore di testi di OpenAI

Un nuovo sistema di classificazione cerca di rispondere alle preoccupazioni dell’opinione pubblica, ma (almeno per ora)...

Opinioni

I dati guidano la rivoluzione della sanità

La trasformazione del settore sanitario è già in corso: l'intelligenza artificiale sta guidando la rivoluzione nella dia...