Tecnologia AI, rischi troppo rapidi per prepararsi
2' 47''
14/01/2026

Esperto di sicurezza AI avverte: i rapidi progressi tecnologici rischiano di superare i tentativi di controllare i sistemi più potenti

AI, rischi troppo rapidi per prepararsi

Il ritmo vertiginoso con cui l'intelligenza artificiale sta evolvendo potrebbe non lasciare il tempo necessario per mettere a punto adeguate misure di sicurezza. È l'allarme lanciato da David Dalrymple, esperto di sicurezza AI e direttore di programma presso Aria, l'agenzia britannica per la ricerca scientifica. Le sue dichiarazioni al Guardian tracciano uno scenario preoccupante in cui la società potrebbe trovarsi impreparata di fronte a tecnologie in grado di superare le capacità umane in ogni ambito critico per il mantenimento del controllo sulla nostra civiltà.

Il rischio della supremazia tecnologica

La prospettiva delineata da Dalrymple non appartiene alla fantascienza, ma a un futuro molto prossimo. Secondo l'esperto, entro cinque anni la maggior parte delle attività economicamente rilevanti potrebbe essere svolta da macchine con una qualità superiore e costi inferiori rispetto agli esseri umani. "Saremo superati in tutti i domini in cui dobbiamo mantenere il predominio per conservare il controllo della nostra civiltà, società e pianeta", ha spiegato Dalrymple, sottolineando come il vero pericolo risieda nei sistemi capaci di replicare e migliorare ogni funzione umana.

Il problema non è solo teorico. L'AI Security Institute britannico ha documentato questo mese come le capacità dei modelli più avanzati stiano crescendo a ritmi impressionanti, con prestazioni che in alcuni settori raddoppiano ogni otto mesi. I sistemi più sofisticati riescono ora a completare autonomamente compiti che richiederebbero a un esperto umano oltre un'ora di lavoro.

Il divario tra industria e istituzioni

Esiste una preoccupante disconnessione tra il settore pubblico e le aziende di intelligenza artificiale riguardo alla portata delle innovazioni imminenti. Dalrymple evidenzia come le pressioni economiche stiano accelerando lo sviluppo tecnologico senza che la scienza della sicurezza riesca a tenere il passo. L'obiettivo realistico, secondo l'esperto che sviluppa sistemi di protezione per infrastrutture critiche come le reti energetiche, non è più garantire l'affidabilità assoluta di questi sistemi, ma piuttosto controllare e mitigare i loro effetti negativi.

La civiltà umana sta entrando sonnambula in questa transizione

I dati dell'AI Security Institute confermano queste preoccupazioni: i modelli principali completano oggi compiti di livello apprendista nel 50% dei casi, rispetto a circa il 10% dell'anno scorso. Particolarmente inquietanti sono i risultati dei test sulla capacità di auto-replicazione, considerata un punto critico per la sicurezza poiché implica che un sistema possa diffondere copie di sé stesso su altri dispositivi, diventando più difficile da controllare. Due modelli all'avanguardia hanno raggiunto tassi di successo superiori al 60%, sebbene l'istituto precisi che uno scenario catastrofico rimanga improbabile nelle condizioni reali quotidiane.

L'accelerazione verso l'auto-miglioramento

La prospettiva più radicale riguarda il momento in cui i sistemi di intelligenza artificiale saranno in grado di automatizzare l'equivalente di un'intera giornata di ricerca e sviluppo. Dalrymple prevede che questo traguardo verrà raggiunto entro la fine del 2026, innescando un'ulteriore accelerazione delle capacità poiché la tecnologia potrà auto-perfezionarsi sugli aspetti matematici e informatici dello sviluppo AI. Aria, pur essendo finanziata con fondi pubblici, opera in modo indipendente dal governo e indirizza finanziamenti alla ricerca proprio su questi temi cruciali.

Dalrymple descrive il sorpasso del progresso tecnologico sulla sicurezza come una "destabilizzazione della sicurezza e dell'economia", un processo che alcuni ottimisti del settore sperano possa rivelarsi positivo. Tuttavia, l'esperto lavora per migliorare l'esito di questa transizione pur riconoscendo l'elevato rischio che comporta. La sua raccomandazione ai governi è chiara: non dare per scontata l'affidabilità dei sistemi avanzati e investire urgentemente in ricerche tecniche per comprendere e controllare i comportamenti dell'intelligenza artificiale di prossima generazione.

Condividi questo contenuto