Approfondimenti Messaggi ostili: una sfida per l'analisi del linguaggio
2' 48''
07/02/2023

Un rapporto svela i limiti dell'IA nell'analisi della disinformazione sui social media e propone soluzioni per migliorare le valutazioni delle intenzioni.

Messaggi ostili: una sfida per l'analisi del linguaggio

Un rapporto del Centro di eccellenza per le comunicazioni strategiche della NATO (StratCom COE) ha sottolineato che molti degli strumenti di intelligenza artificiale utilizzati per monitorare i post sui social media analizzano i testi in modo troppo letterale e faticano a rilevare disinformazione e sfumature ostili nei messaggi.

Un team di esperti afferma che la maggior parte dei sistemi di AI utilizzati per stimare l'emozione online si basa su una comprensione del sentiment che non è efficace come previsto.

Il loro studio, pubblicato come parte di una collaborazione tra l'Università di Portsmouth e lo Strategic Communications Centre of Excellence della NATO, esplora i limiti di queste strategie e suggerisce modi per migliorarle.

La ricerca si concentra sull’identificazione dei testi “microaggressivi” che mirano ad attaccare un individuo o un gruppo in modo difficile da identificare dall'IA.

Alexander Gegov, Reader in Computational Intelligence e leader del team dell'Università di Portsmouth, ha dichiarato: “Le microaggressioni sono pericolose sui social media poiché possono essere facilmente recepite da persone con convinzioni simili e aiutare a diffondere messaggi tossici o ostili”.

Analizzare l’intenzione

Stimare le emozioni è impegnativo, ma il rapporto abbiamo dimostra che ci sono molti modi in cui si possono migliorare i meccanismi tradizionali. Secondo Gegov: “è tempo di andare oltre le semplici emozioni polari e insegnare all'intelligenza artificiale a valutare il contesto di una conversazione”.

Gli autori hanno criticato il classificatore di emozioni di Google Jigsaw per la sua incapacità di distinguere tra risposte a commenti tossici e discorsi di odio.

Unsplash
Manifestazione

Sostengono che un approccio noto rhetorical structure theory (RST) sia un modo migliore e più robusto di analizzare le microaggressioni. RST imita il modo in cui il cervello pesa le frasi e assegna importanza a certe parole o costrutti.

I ricercatori portano questo esempio: “Today is pretty bad” (oggi è piuttosto brutto) e “That's a pretty dress” (è un bel vestito) contengono entrambi la parola “pretty”, carino. Ma nel primo caso, il termine serve per intensificare l’intenzione negativa della parola bad.

Djamila Ouelhadj, professore di ricerca operativa e analisi presso l'Università di Portsmouth, ha commentato: “Analizzare il testo da solo non è sufficiente quando si cerca di classificare forme più sottili di incitamento all'odio”.

“Imparare come un individuo ha composto un messaggio offre una fonte di informazioni ricca e non sfruttata che può fornire a un analista la storia di come e perché il messaggio è stato assemblato”, ha concludo Ouelhadj.

Gli autori descrivono l'utilizzo del modello RST per analizzare messaggi e tweet offensivi o anti-occidentali. RST può determinare il livello di radicalizzazione di un gruppo o di un individuo, in base alla loro fiducia e insicurezza.

Unsplash
Online

Il team ha prodotto set di dati sulla microaggressione e li ha testati in inglese e russo. Analizzando 500 messaggi russi da un canale Telegram legato alla propaganda del Cremlino, hanno scoperto che la traduzione AI perde alcune inferenze tossiche. Per ovviare a questo, il documento suggerisce di perfezionare i traduttori online per le lingue specifiche della regione.

L'anno scorso, gli Stati Uniti hanno stanziato oltre mezzo milione di dollari in fondi per lo sviluppo di un modello AI in grado di rilevare e sopprimere automaticamente le microaggressioni sui social media.

Potrebbe interessarti anche

Approfondimenti

I sei trend di IA che rivoluzioneranno il marketing

Bernard Marr di Forbes individua sei trend di intelligenza artificiale che guideranno lo sviluppo del marketing nel 2025...

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...

Approfondimenti

Il mercato italiano del Business Process Management continua a crescere

In Italia il mercato del Business Process Management sta crescendo grazie all'IA e a una maggiore attenzione delle impre...