Il colosso dei chip Nvidia punta a raggiungere entrate per 500 miliardi di dollari entro la fine del 2026 grazie alle piattaforme Blackwell e Rubin di nuova generazione. Tuttavia, mentre l'amministratore delegato Jensen Huang si mostra fiducioso sulla capacità dell'azienda di gestire la propria catena di approvvigionamento, gli analisti del settore lanciano segnali d'allarme che i responsabili IT e i manager dei data center non possono permettersi di ignorare. La crescente domanda di GPU Nvidia rischia infatti di superare di gran lunga l'offerta disponibile, creando scenari potenzialmente problematici per le aziende che puntano sull'intelligenza artificiale.
La voce degli scettici: quando la domanda supera l'offerta
Alvin Nguyen, analista senior di Forrester, ha rivelato che diversi suoi clienti hanno sollevato preoccupazioni concrete sulla scarsità di GPU Nvidia disponibili sul mercato. La sproporzione tra domanda e offerta sta costringendo le imprese a considerare alternative meno convenzionali, sia on-premises come i chip AMD, Intel e ASIC personalizzati, sia nel cloud con soluzioni TPU. Tuttavia, neanche queste opzioni alternative potrebbero bastare a soddisfare le ambizioni AI di tutte le organizzazioni, avverte l'analista.
Per i CIO questo significa dover ricalibrare le proprie aspettative e ridimensionare i progetti AI in base alle risorse effettivamente disponibili. Nguyen suggerisce di affidarsi alle piattaforme AI offerte da altri fornitori come Salesforce o ServiceNow, oltre a sperimentare con modelli più piccoli che richiedono infrastrutture meno impegnative. Un approccio pragmatico in un settore dove "tutto si muove così velocemente che le risposte sono chiare solo col senno di poi".
Ripensare le strategie: non sempre serve l'ultimo modello
Matt Kimball di Moor Insights & Strategy propone un'analisi più articolata della questione. Secondo l'esperto, molte delle difficoltà che le organizzazioni affrontano potrebbero essere evitate con una pianificazione più accurata del dimensionamento dell'infrastruttura. Non tutti i carichi di lavoro richiedono necessariamente l'ultimo chip GB300 di Nvidia: esistono profili di prestazioni diversi, con variazioni significative nel rapporto tra prestazioni e consumo energetico o tra prestazioni e costi.
Kimball osserva che la distinzione tra training e inferenza è cruciale per un corretto dimensionamento delle soluzioni. In certi contesti, come un ambiente con sensori in tempo reale su una piattaforma petrolifera, una soluzione basata su ASIC potrebbe risultare più adatta rispetto a una GPU Nvidia. Il cloud rappresenta poi sempre un'opzione valida, essendo i provider i primi nella fila per ricevere i chip del produttore californiano.
I rischi nascosti della supply chain
Gaurav Gupta, analista di Gartner, ritiene che la complessità della catena di approvvigionamento sia talmente elevata da richiedere un monitoraggio prioritario da parte dei CIO. Al di là delle carenze note su wafer di ultima generazione, packaging avanzato e memoria HBM, esistono vincoli meno riconosciuti ma potenzialmente critici: componenti più piccoli, parti di macchinari di precisione per la gestione termica, sistemi di raffreddamento a liquido e rack per server. Senza dimenticare la disponibilità di energia necessaria per alimentare questi data center.
Il consiglio dell'analista è chiaro: essere proattivi, pianificare con anticipo e non trovarsi ultimi nella coda quando si ordinano risorse di calcolo come le GPU. Scott Bickley di Info-Tech Research Group aggiunge che, mentre il mercato si interroga su come Nvidia passerà dagli attuali 250 miliardi di dollari annualizzati ai previsti 500 miliardi, l'azienda ha dichiarato che ogni chip disponibile è già venduto e che avrebbe potuto venderne di più se avesse avuto l'inventario.
Scenari geopolitici e contratti multimiliardari
I rischi per la supply chain sono molteplici per natura, ma Nvidia gode dello status di cliente numero uno presso tutti i suoi fornitori, garantendosi un'allocazione sproporzionata di risorse. Le interruzioni più probabili avrebbero origine geopolitica: tensioni tra Cina e Taiwan, espansione del conflitto Russia-Ucraina o escalation nella guerra commerciale USA-Cina. Per eventi a minor impatto, l'azienda ha dimostrato capacità di fissare obiettivi conservativi che supera regolarmente trimestre dopo trimestre, creando un cuscinetto per assorbire eventuali intoppi.
Sanchit Vir Gogia di Greyhound Research evidenzia che i contratti di fornitura a lungo termine ammontano a circa 50,3 miliardi di dollari, mentre gli accordi pluriennali per servizi cloud sono saliti a 26 miliardi. Questo significa che gran parte della capacità della prossima ondata è già stata prenotata da hyperscaler e laboratori all'avanguardia. Le imprese non stanno entrando in un mercato aperto, ma accodandosi in una fila molto lunga.
Due strategie opposte per affrontare il futuro
Secondo Gogia, la decisione più importante per i CIO oggi è se progettare la propria strategia AI attorno a Nvidia o attorno al rischio rappresentato da Nvidia. Progettare attorno a Nvidia significa accettare che la piattaforma sia il gold standard e impegnarsi inserendo ordini con 12 mesi di anticipo, utilizzando più OEM per la stessa configurazione e costruendo tempistiche di programma che possano assorbire ritardi nelle spedizioni.
Progettare attorno al rischio, invece, significa riconoscere che Nvidia è essenziale ma non può essere l'unico percorso. La diversificazione diventa quindi una misura di resilienza piuttosto che un dibattito filosofico. Durante la conference call sugli utili, quando un analista ha chiesto a Huang se vedesse un percorso realistico affinché l'offerta raggiungesse la domanda nei prossimi 12-18 mesi, il CEO ha risposto con sicurezza citando l'eccellente pianificazione della supply chain dell'azienda, che "include praticamente ogni compagnia tecnologica al mondo". Una fiducia che però non tutti gli esperti del settore sembrano condividere pienamente.