La filiera dei chip ad alte prestazioni per l'intelligenza artificiale si trova di fronte a una serie di ostacoli tecnici e geopolitici che stanno ridisegnando le previsioni di mercato per il 2025 e il 2026. Secondo un'analisi pubblicata da TrendForce, le spedizioni delle prossime unità di elaborazione grafica (GPU) di nuova generazione di Nvidia subiranno ritardi significativi, con una riduzione dei volumi attesi ben al di sotto delle stime precedenti.
Il dato più rilevante riguarda la famiglia Rubin, ridimensionata al 22% del mix delle spedizioni GPU premium di Nvidia nel 2026, rispetto al 29% stimato in precedenza da TrendForce. Un calo di sette punti percentuali che, su un mercato da centinaia di miliardi di dollari, si traduce in volumi considerevoli spostati verso altre generazioni di prodotto.
Le cause identificate dagli analisti di TrendForce sono di natura prevalentemente tecnica. La validazione della memoria HBM4 — standard di nuova generazione con densità e larghezza di banda superiori all'HBM3 — richiede tempi più lunghi del previsto. A questo si aggiungono le complessità legate alla migrazione verso le schede di rete ConnectX-9, i consumi energetici complessivi più elevati del sistema e le esigenze di raffreddamento a liquido più sofisticate. Tutti fattori che allungano i cicli di qualifica industriale e ritardano la disponibilità commerciale.
Il vuoto lasciato da Rubin viene in parte colmato dalla famiglia Blackwell, attesa al 71% delle spedizioni complessive di GPU Nvidia nel corso dell'anno. Modelli come GB300 e B300 sembrano beneficiare della maggiore maturità della supply chain e di una domanda sostenuta da parte dei grandi operatori di data center.
Sul fronte geopolitico, permane una variabile non risolta: le spedizioni di GPU Hopper verso la Cina — inclusi gli H200 — risultano inferiori alle attese iniziali nonostante le aperture regolamentari dell'amministrazione Trump. A dicembre 2024 erano state concesse eccezioni alle norme sull'export di acceleratori AI verso Pechino, con approvazione formale a gennaio 2025. L'accordo prevedeva che Nvidia potesse vendere gli H200 al mercato cinese cedendo un quarto dei relativi ricavi all'erario federale statunitense. Tuttavia, come dichiarato dall'amministratore delegato Jensen Huang durante la conferenza GTC, ottenere il via libera di Pechino ha richiesto mesi di negoziazione, e la produzione degli H200 dedicati alla Cina è stata riavviata solo di recente con ordini di acquisto già acquisiti.
Sul versante dei nuovi prodotti, TrendForce esprime ottimismo per le unità di elaborazione linguistica (LPU) Groq di prossima commercializzazione da parte di Nvidia. Questi chip, privi di memoria DRAM convenzionale, sono progettati per accelerare la fase di decodifica nell'inferenza dei modelli linguistici lavorando in abbinamento alle GPU come Rubin. La limitata memoria SRAM integrata richiede però l'impiego di grandi quantità di unità: TrendForce stima una domanda nell'ordine delle centinaia di migliaia di unità per il 2025, con una duplicazione prevista nel 2027.
Parallelamente, TrendForce segnala un ulteriore rialzo dei prezzi della memoria DRAM per i consumatori: un incremento atteso tra il 45% e il 50% nel secondo trimestre 2025, dopo un già consistente +75-80% registrato nel primo trimestre. Prodotti come DDR5 e unità SSD vengono ora venduti a prezzi più che triplicati rispetto a dodici mesi fa.
Il quadro che emerge solleva interrogativi strutturali sulla capacità dell'ecosistema produttivo globale di stare al passo con una domanda di computing per l'AI che cresce a ritmi difficilmente sostenibili dalla supply chain esistente. La convergenza di vincoli tecnici, tensioni geopolitiche e impennate dei prezzi delle componenti pone una domanda legittima: quanto a lungo i margini dei grandi operatori cloud e dei costruttori di sistemi AI potranno assorbire questi shock senza trasferirli integralmente ai clienti finali?