L'esplosiva crescita dei supercomputer AI potrebbe presto scontrarsi con un ostacolo insormontabile: non la tecnologia o i finanziamenti, ma la brutale realtà delle esigenze energetiche. Secondo un recente studio di Epoch AI, entro il 2030 i colossi dell'intelligenza artificiale potrebbero aver bisogno di quantità di energia equivalenti a quelle prodotte da nove reattori nucleari. Un fabbisogno che nessuna struttura industriale attuale sarebbe in grado di soddisfare, mettendo potenzialmente in crisi l'intero settore nonostante gli investimenti multimiliardari che continuano ad affluire nel settore.
La corsa insostenibile alla potenza computazionale
Dal 2019, la potenza di calcolo dei supercomputer AI è cresciuta a un ritmo vertiginoso del 250% all'anno, con un raddoppio annuale sia dei costi hardware che del consumo energetico. Questa escalation è stata alimentata principalmente dall'implementazione di un numero sempre maggiore di chip più performanti, con un incremento di 1,6 volte all'anno per entrambi i fattori. Se nel 2019 sistemi con più di 10.000 chip erano considerati eccezionali, oggi assistiamo a progetti come Colossus di xAI che ne integra ben 200.000.
La previsione di Epoch AI è inequivocabile: il supercomputer AI più potente del 2030 richiederà circa 2 milioni di chip, un investimento di 200 miliardi di dollari e, soprattutto, 9 gigawatt di potenza elettrica. Se per i primi due requisiti esistono concrete possibilità di soddisfarli, grazie alla crescita della produzione di chip e a impegni finanziari colossali come il Project Stargate da 500 miliardi di dollari, il fabbisogno energetico rappresenta una sfida di tutt'altra portata.
La privatizzazione dell'intelligenza artificiale
Un altro dato significativo emerso dallo studio riguarda la proprietà di questi sistemi avanzati. La quota di potenza computazionale dei supercomputer AI detenuta da aziende private è aumentata drasticamente, passando dal 40% nel 2019 all'80% previsto per il 2025. Un cambiamento radicale che sottolinea come la frontiera dell'innovazione tecnologica si stia spostando decisamente dal settore pubblico a quello privato.
La distribuzione geografica di questa enorme capacità di calcolo evidenzia inoltre un netto predominio statunitense, con il 75% della potenza totale dei supercomputer AI ospitata negli USA, seguita dalla Cina con un modesto 15%. Una situazione che accentua ulteriormente gli squilibri esistenti nel panorama tecnologico globale e che potrebbe influenzare le dinamiche geopolitiche future.
Soluzioni decentralizzate per un futuro sostenibile
Per superare l'ostacolo energetico che si profila all'orizzonte, Epoch AI suggerisce un cambio di paradigma: passare da un approccio centralizzato a uno distribuito. Le aziende potrebbero optare per strategie di addestramento decentralizzato, suddividendo il carico computazionale tra supercomputer situati in diverse località. Una soluzione che permetterebbe di alleviare la pressione sulle singole strutture e di ottimizzare l'utilizzo delle risorse energetiche disponibili.
Progetti ambiziosi come Colossus di xAI, lanciato a settembre con 100.000 chip H100 e destinato a raddoppiare nei mesi successivi, o Stargate, annunciato dall'ex presidente Trump a gennaio con l'obiettivo di costruire enormi centri dati focalizzati sull'AI negli Stati Uniti, testimoniano la portata delle ambizioni del settore. Il primo centro di Stargate, con una superficie di oltre 46.000 metri quadrati in Texas, rappresenta solo l'inizio di un piano che prevede la costruzione di dieci strutture simili.
Il bivio energetico dell'intelligenza artificiale
Mentre il mondo dell'AI continua la sua corsa all'innovazione, la questione energetica emerge come il potenziale tallone d'Achille dell'intera industria. La sfida non riguarda più solo la capacità di sviluppare chip sempre più potenti o di raccogliere capitali sufficienti, ma si sposta sul piano delle infrastrutture energetiche e della sostenibilità ambientale.
La capacità di rispondere efficacemente a questa sfida determinerà non solo il futuro dei singoli progetti di supercomputer AI, ma potrebbe ridisegnare l'intero panorama dell'intelligenza artificiale nei prossimi decenni, privilegiando approcci più distribuiti e sostenibili rispetto agli attuali sistemi centralizzati ad alta intensità energetica.