Tecnologia I modelli AI soffrono anche di brain rot
2' 55''
30/10/2025

L'addestramento dei modelli linguistici con contenuti social di bassa qualità ma alto coinvolgimento ne riduce le capacità cognitive.

I modelli AI soffrono anche di brain rot

L'intelligenza artificiale potrebbe soffrire di un disturbo sorprendentemente simile a quello che affligge gli utenti più accaniti dei social media. Una ricerca condotta congiuntamente dall'University of Texas at Austin, dalla Texas A&M e dalla Purdue University ha rivelato che i grandi modelli linguistici alimentati con contenuti di bassa qualità provenienti dalle piattaforme social sviluppano una forma di deterioramento cognitivo paragonabile al cosiddetto "brain rot", quel fenomeno di intorpidimento mentale ben noto a chiunque abbia passato troppe ore scorrendo compulsivamente X o TikTok. I risultati sollevano interrogativi inquietanti sul futuro dell'intelligenza artificiale, soprattutto considerando che le IA stesse stanno generando sempre più contenuti pensati per massimizzare il coinvolgimento online.

Il test sui modelli aperti

Gli scienziati hanno sottoposto due modelli linguistici open source a diversi regimi alimentari digitali durante la fase di pre-addestramento. Llama di Meta e Qwen di Alibaba sono stati nutriti con una miscela di post social particolarmente virali, caratterizzati da un'alta condivisione, insieme a testi sensazionalistici contenenti espressioni enfatiche come "wow", "guarda" o "solo per oggi". L'obiettivo era verificare se questo tipo di materiale, progettato più per catturare clic che per trasmettere informazioni sostanziali, potesse influenzare le prestazioni dei sistemi.

I ricercatori hanno poi valutato l'impatto di questa dieta digitale attraverso diversi parametri di riferimento. Le conseguenze si sono rivelate sorprendentemente simili a quelle osservate negli esseri umani esposti a contenuti di bassa qualità: capacità di ragionamento ridotte, memoria compromessa e persino un disallineamento etico. Due misurazioni hanno addirittura evidenziato tendenze più "psicopatiche" nei modelli compromessi.

Quando l'IA genera la propria trappola

Una volta instaurato questo declino cognitivo, nemmeno un nuovo addestramento pulito riesce a ripristinare completamente le capacità originali

La questione assume contorni particolarmente preoccupanti se si considera che l'intelligenza artificiale sta producendo quantità crescenti di contenuti per i social media, gran parte dei quali ottimizzati proprio per massimizzare il coinvolgimento. Secondo Junyuan Hong, ricercatore che ha partecipato allo studio mentre era dottorando a UT Austin e ora professore assistente alla National University of Singapore, viviamo in un'epoca dove "l'informazione cresce più velocemente della capacità di attenzione, e gran parte è progettata per catturare clic, non per trasmettere verità o profondità".

Il fenomeno del brain rot ha assunto tale rilevanza che l'Oxford Dictionary l'ha nominato parola dell'anno nel 2024, riconoscendone la pervasività nella società contemporanea. La ricerca sugli esseri umani aveva già dimostrato che i contenuti online di scarsa qualità esercitano effetti dannosi sulle capacità cognitive delle persone, e ora questa evidenza si estende anche alle macchine intelligenti.

Implicazioni per l'industria tecnologica

Le conclusioni dello studio hanno rilevanza immediata per chi sviluppa sistemi di intelligenza artificiale. Come spiega Hong, chi costruisce modelli potrebbe erroneamente considerare i post social come una fonte affidabile di dati per l'addestramento. "Addestrare su contenuti virali o che catturano l'attenzione può sembrare un modo per ampliare i dati", avverte il ricercatore, "ma può silenziosamente corrodere il ragionamento, l'etica e l'attenzione su contesti lunghi".

La questione diventa ancora più critica per i sistemi di IA integrati nelle piattaforme social, come Grok, che potrebbero soffrire di problemi di controllo qualità se utilizzano contenuti generati dagli utenti nell'addestramento senza verificarne attentamente l'integrità. Hong mette in guardia contro quello che definisce un circolo vizioso: "Man mano che si diffonde più spazzatura generata dall'IA attraverso i social media, questa contamina proprio i dati da cui i futuri modelli impareranno". La scoperta più allarmante riguarda l'irreversibilità parziale del danno: una volta che questo tipo di deterioramento cognitivo si manifesta, un successivo addestramento con dati puliti non riesce a ripristinare completamente le capacità originali del sistema.

Fonte: wired.com

Condividi questo contenuto