L'intelligenza artificiale avanza troppo in fretta: l'allarme di un esperto governativo britannico
L'umanità potrebbe non avere abbastanza tempo per prepararsi adeguatamente ai rischi legati allo sviluppo accelerato dell'intelligenza artificiale. A lanciare l'allarme è David Dalrymple, esperto di sicurezza AI e direttore di programma presso Aria, l'agenzia di ricerca scientifica del governo britannico. Secondo l'esperto, la velocità con cui questa tecnologia sta evolvendo supera largamente la capacità dei governi e delle istituzioni di comprenderne le implicazioni e predisporre adeguate misure di controllo.
Il rischio principale riguarda la creazione di sistemi in grado di svolgere tutte le funzioni umane con prestazioni superiori. "Dovremmo preoccuparci dei sistemi capaci di eseguire tutte le funzioni che gli esseri umani svolgono per realizzare obiettivi nel mondo reale, ma in modo migliore", ha dichiarato Dalrymple al Guardian. Le conseguenze sarebbero drammatiche: l'umanità verrebbe superata in tutti i settori cruciali per mantenere il controllo sulla propria civiltà, società e pianeta.
Il divario tra pubblico e privato sulla comprensione della rivoluzione tecnologica
Esiste una preoccupante differenza di percezione tra il settore pubblico e le aziende tecnologiche riguardo alla portata dei progressi imminenti nel campo dell'intelligenza artificiale. Dalrymple sottolinea come le istituzioni governative sottovalutino la rapidità con cui questa rivoluzione sta prendendo piede, mentre le società private che sviluppano questi sistemi sono perfettamente consapevoli delle loro potenzialità.
"Suggerirei che le cose si stanno muovendo davvero in fretta e potremmo non avere il tempo di gestirle preventivamente dal punto di vista della sicurezza", avverte l'esperto. La sua previsione è tutt'altro che fantascienza: entro cinque anni, la maggior parte delle attività economicamente rilevanti sarà svolta da macchine con un livello di qualità superiore e costi inferiori rispetto agli esseri umani.
Infrastrutture critiche a rischio senza garanzie di affidabilità
Il lavoro di Dalrymple presso Aria si concentra proprio sulla salvaguardia dell'utilizzo dell'intelligenza artificiale nelle infrastrutture critiche come le reti energetiche. La sua posizione è netta: i governi non devono dare per scontato che i sistemi avanzati siano affidabili. L'agenzia Aria, pur essendo finanziata pubblicamente, opera in modo indipendente dal governo e gestisce la distribuzione di fondi per la ricerca.
"Non possiamo presumere che questi sistemi siano affidabili. La scienza necessaria per ottenerlo semplicemente non è destinata a materializzarsi in tempo, data la pressione economica", spiega Dalrymple. La soluzione alternativa consiste nel controllare e mitigare gli aspetti negativi, un obiettivo che forse può ancora essere raggiunto nei tempi disponibili.
Un'umanità che procede come sonnambula verso il cambiamento
Dalrymple descrive le conseguenze di un progresso tecnologico che supera le misure di sicurezza come una "destabilizzazione della sicurezza e dell'economia". Serve urgentemente più lavoro tecnico per comprendere e controllare i comportamenti dei sistemi AI avanzati. Paradossalmente, molti pionieri del settore sperano che questa destabilizzazione possa rivelarsi positiva, ma l'esperto non condivide l'ottimismo incondizionato.
"Sto lavorando per cercare di far andare le cose meglio, ma è estremamente rischioso e la civiltà umana nel suo complesso sta procedendo come sonnambula verso questa transizione", afferma con preoccupazione l'esperto di Aria.
I dati allarmanti dell'Istituto britannico per la sicurezza AI
A confermare le preoccupazioni di Dalrymple arrivano i dati pubblicati questo mese dall'AI Security Institute (AISI) del governo britannico. Le capacità dei modelli AI avanzati stanno "migliorando rapidamente" in tutti i settori, con prestazioni che in alcune aree raddoppiano ogni otto mesi. Una progressione che lascia poco tempo per adattarsi.
I modelli più avanzati ora completano compiti di livello apprendista nel 50% dei casi in media, rispetto a circa il 10% dell'anno scorso. Ma il dato forse più significativo riguarda i compiti complessi: i sistemi più sofisticati riescono autonomamente a completare attività che richiederebbero a un esperto umano oltre un'ora di lavoro.
Il test dell'auto-replicazione: scenari inquietanti ma non immediati
L'istituto ha condotto test anche sulla capacità di auto-replicazione, una delle principali preoccupazioni in materia di sicurezza poiché comporta la diffusione di copie del sistema ad altri dispositivi, rendendolo più difficile da controllare. I risultati mostrano che due modelli all'avanguardia hanno raggiunto tassi di successo superiori al 60%.
Tuttavia, l'AISI ha precisato che uno scenario catastrofico rimane improbabile in un contesto quotidiano, affermando che qualsiasi tentativo di auto-replicazione è "improbabile che abbia successo in condizioni del mondo reale". Una rassicurazione parziale che non elimina i timori per sviluppi futuri.
L'accelerazione dell'auto-miglioramento entro il 2026
La visione di Dalrymple per il futuro immediato è particolarmente inquietante. L'esperto ritiene che entro la fine del 2026 i sistemi AI saranno in grado di automatizzare l'equivalente di un'intera giornata di lavoro di ricerca e sviluppo. Questo "risulterà in un'ulteriore accelerazione delle capacità", poiché la tecnologia sarà in grado di auto-migliorarsi sugli elementi matematici e informatici dello sviluppo dell'intelligenza artificiale stessa.
Un circolo virtuoso - o vizioso, a seconda delle prospettive - che potrebbe sfuggire definitivamente al controllo umano, rendendo ancora più urgente la necessità di stabilire protocolli di sicurezza e governance prima che sia troppo tardi.