Un rapporto del Centro di eccellenza per le comunicazioni strategiche della NATO (StratCom COE) ha sottolineato che molti degli strumenti di intelligenza artificiale utilizzati per monitorare i post sui social media analizzano i testi in modo troppo letterale e faticano a rilevare disinformazione e sfumature ostili nei messaggi.
Un team di esperti afferma che la maggior parte dei sistemi di AI utilizzati per stimare l'emozione online si basa su una comprensione del sentiment che non è efficace come previsto.
Il loro studio, pubblicato come parte di una collaborazione tra l'Università di Portsmouth e lo Strategic Communications Centre of Excellence della NATO, esplora i limiti di queste strategie e suggerisce modi per migliorarle.
La ricerca si concentra sull’identificazione dei testi “microaggressivi” che mirano ad attaccare un individuo o un gruppo in modo difficile da identificare dall'IA.
Alexander Gegov, Reader in Computational Intelligence e leader del team dell'Università di Portsmouth, ha dichiarato: “Le microaggressioni sono pericolose sui social media poiché possono essere facilmente recepite da persone con convinzioni simili e aiutare a diffondere messaggi tossici o ostili”.
Analizzare l’intenzione
Stimare le emozioni è impegnativo, ma il rapporto abbiamo dimostra che ci sono molti modi in cui si possono migliorare i meccanismi tradizionali. Secondo Gegov: “è tempo di andare oltre le semplici emozioni polari e insegnare all'intelligenza artificiale a valutare il contesto di una conversazione”.
Gli autori hanno criticato il classificatore di emozioni di Google Jigsaw per la sua incapacità di distinguere tra risposte a commenti tossici e discorsi di odio.
Sostengono che un approccio noto rhetorical structure theory (RST) sia un modo migliore e più robusto di analizzare le microaggressioni. RST imita il modo in cui il cervello pesa le frasi e assegna importanza a certe parole o costrutti.
I ricercatori portano questo esempio: “Today is pretty bad” (oggi è piuttosto brutto) e “That's a pretty dress” (è un bel vestito) contengono entrambi la parola “pretty”, carino. Ma nel primo caso, il termine serve per intensificare l’intenzione negativa della parola bad.
Djamila Ouelhadj, professore di ricerca operativa e analisi presso l'Università di Portsmouth, ha commentato: “Analizzare il testo da solo non è sufficiente quando si cerca di classificare forme più sottili di incitamento all'odio”.
“Imparare come un individuo ha composto un messaggio offre una fonte di informazioni ricca e non sfruttata che può fornire a un analista la storia di come e perché il messaggio è stato assemblato”, ha concludo Ouelhadj.
Gli autori descrivono l'utilizzo del modello RST per analizzare messaggi e tweet offensivi o anti-occidentali. RST può determinare il livello di radicalizzazione di un gruppo o di un individuo, in base alla loro fiducia e insicurezza.
Il team ha prodotto set di dati sulla microaggressione e li ha testati in inglese e russo. Analizzando 500 messaggi russi da un canale Telegram legato alla propaganda del Cremlino, hanno scoperto che la traduzione AI perde alcune inferenze tossiche. Per ovviare a questo, il documento suggerisce di perfezionare i traduttori online per le lingue specifiche della regione.
L'anno scorso, gli Stati Uniti hanno stanziato oltre mezzo milione di dollari in fondi per lo sviluppo di un modello AI in grado di rilevare e sopprimere automaticamente le microaggressioni sui social media.