L'intelligenza artificiale sta trasformando il panorama tecnologico globale, ma non tutte le aziende riescono ad accedere all'hardware necessario per realizzare le proprie ambizioni in questo campo. La cronica carenza di chip Nvidia, leader indiscusso nel settore dei processori per AI, sta costringendo Chief Information Officer e responsabili dei data center a ripensare completamente le proprie strategie. Mentre gli azionisti del colosso californiano brindano ai risultati finanziari da record, il mondo corporate si trova di fronte a un dilemma: aspettare il proprio turno in una coda sempre più lunga o cercare soluzioni alternative?
Il paradosso del successo di Nvidia
I numeri parlano chiaro: nell'ultimo trimestre Nvidia ha registrato ricavi per 57 miliardi di dollari, di cui oltre 51 miliardi provenienti dal segmento data center. Nonostante queste cifre impressionanti, l'azienda ha dovuto ammettere di trovarsi ancora in una situazione di vincoli di fornitura senza precedenti. Colette Kress, CFO di Nvidia, ha dichiarato durante la presentazione dei risultati che "tutto il cloud è esaurito e l'intera base installata di GPU Nvidia è in funzione", un'affermazione che ha entusiasmato Wall Street ma gelato chi sperava di mettere le mani su questi processori.
Il CEO Jensen Huang ha cercato di rassicurare il mercato sostenendo che l'azienda ha "progettato molto bene la propria catena di fornitura, alla quale partecipano praticamente tutte le aziende tecnologiche del mondo". Tuttavia, secondo gli analisti di settore, la realtà sul campo racconta una storia diversa, fatta di attese prolungate e piani industriali rimandati.
Le alternative esistono, ma non per tutti
Alvin Nguyen, analista senior di Forrester, ha ricevuto numerose richieste da parte di clienti preoccupati che chiedono "cosa fare quando non si riesce a ottenere GPU Nvidia, dato che la domanda supera di gran lunga l'offerta". Le opzioni sul tavolo includono chip AMD e Intel, ASIC personalizzati e CPU per ambienti on-premise, mentre nel cloud si possono considerare TPU e altri acceleratori proprietari. Il problema è che con l'espansione dell'adozione dell'AI, queste alternative potrebbero non soddisfare le esigenze di tutte le aziende.
La questione non riguarda solo la disponibilità di hardware, ma la capacità delle organizzazioni di raggiungere i propri obiettivi strategici in ambito AI. Nguyen suggerisce che se le imprese non riescono a garantirsi l'infrastruttura necessaria, devono ricalibrare le proprie ambizioni a un livello realisticamente attuabile. Una soluzione parziale potrebbe venire dall'utilizzo di piattaforme AI offerte da fornitori di servizi come Salesforce o ServiceNow, che permetterebbero di ridurre alcune necessità infrastrutturali.
Modelli più piccoli e pianificazione strategica
Gli esperti raccomandano ai decisori IT di esplorare modelli di dimensioni ridotte che funzionino con infrastrutture meno esigenti. Questa sperimentazione potrebbe fornire criteri utili per orientare le future scelte in ambito AI. Tuttavia, Nguyen avverte che l'innovazione continua in questo settore "può ridurre o al contrario accumulare debito tecnologico a seconda del momento e delle modalità di acquisto dell'infrastruttura".
Matt Kimball, analista principale di Moor Insights & Strategy, sottolinea l'importanza di un dimensionamento appropriato dell'infrastruttura. "I chip Nvidia – come del resto qualsiasi altro chip – presentano caratteristiche prestazionali diverse, con variazioni significative in termini di prestazioni per watt e rapporto costo-prestazioni", spiega Kimball. Il modello più recente, il GB300, non rappresenta necessariamente la scelta ottimale per ogni scenario, specialmente se si distinguono gli ambienti di training da quelli di inferenza, dove le esigenze cambiano radicalmente.
Oltre la corsa ai chip di ultima generazione
Questo approccio più sofisticato consente di evitare la competizione diretta con i giganti del settore per accaparrarsi le ultime generazioni di processori. Kimball pone una domanda provocatoria: "È sempre necessario utilizzare chip Nvidia?". Pur riconoscendo che si tratta di un'affermazione insolita nel settore tecnologico, l'analista sostiene che comprendere la struttura dell'infrastruttura di inferenza, dove viene implementata e quale tipo di carico di lavoro deve gestire risulta fondamentale, specialmente negli scenari di inferenza.
Per esempio, in ambienti basati su sensori in tempo reale come le piattaforme di trivellazione offshore, soluzioni basate su ASIC potrebbero rivelarsi più appropriate. Kimball chiarisce: "Non sto dicendo di non scegliere Nvidia. Anche senza problemi di supply chain, è comunque altamente consigliabile esaminare l'insieme delle esigenze AI e applicare modalità di accelerazione adeguate". Il cloud rimane sempre un'opzione valida, dato che i provider di servizi cloud sono tra i primi clienti a ricevere i chip Nvidia.
I rischi nascosti della catena di fornitura
Gaurav Gupta di Gartner avverte che, nonostante Nvidia rivendichi un forte controllo sulla propria supply chain, "la complessità è talmente elevata che i CIO devono monitorarla come priorità assoluta". Le strozzature possono verificarsi non solo negli elementi più noti come wafer all'avanguardia, packaging avanzato o HBM (memoria ad alta larghezza di banda), ma anche in vincoli meno visibili: gestione termica, raffreddamento a immersione, componenti miniaturizzati e parti meccaniche di precisione che vanno nei rack dei server. Inoltre, la pianificazione energetica per gestire i data center rappresenta un requisito imprescindibile.
Scott Bickley di Infotech Research Group offre una prospettiva più ampia: "Il mondo intero ha iniziato a chiedersi come Nvidia possa crescere da circa 250 miliardi di dollari annui a 350 miliardi, e infine oltre 500 miliardi di dollari". L'azienda ha chiaramente dichiarato che tutti i chip sono esauriti e che avrebbe venduto ancora di più se avesse avuto scorte disponibili. Secondo Bickley, è legittimo esaminare attentamente questa catena di fornitura complessa e vulnerabile ponendosi la domanda: "Cosa succederebbe se si verificasse un grave ostacolo che limitasse la spedizione di GPU?"
Lo scenario geopolitico incombe
Bickley analizza i rischi in diverse forme, notando che poiché Nvidia è il cliente prioritario per tutti i fornitori, vengono allocate risorse eccessive per garantire i flussi produttivi. Se dovessero verificarsi interruzioni nella supply chain, probabilmente non deriverebbero da problemi nei processi o nel personale dei fornitori, ma da questioni legate alle materie prime. Nel medio-lungo termine, il rischio maggiore di perturbazioni è rappresentato da eventi geopolitici: tensioni tra Cina e Taiwan, escalation del conflitto Russia-Ucraina, intensificazione della guerra commerciale tra Stati Uniti e Cina.
In caso di interruzioni minori, Nvidia adotta una strategia prudente presentando obiettivi di spedizione molto conservativi a Wall Street, per poi superarli quasi sempre ogni trimestre. Questa tattica offre margine per assorbire problemi di personale, processi o geopolitica. Tuttavia, nello scenario peggiore in cui le spedizioni di GPU fossero gravemente limitate, "le imprese che non hanno un'influenza paragonabile ai grandi operatori cloud avrebbero in pratica pochissime contromisure disponibili", conclude Bickley.
La fila si allunga sempre di più
Sanchit Vir Gogia, analista principale di Greyhound Research, valuta che i risultati finanziari di Nvidia abbiano "confermato che il collo di bottiglia dell'AI enterprise non è più l'immaginazione o il budget, ma la capacità". Nonostante la produzione di circa mille rack di GPU a settimana, Blackwell e Blackwell Ultra – diventati di fatto la valuta di base dell'infrastruttura AI – non riescono a soddisfare la domanda.
Gli impegni di Nvidia per forniture e capacità a lungo termine ammontano a circa 50,3 miliardi di dollari, mentre i contratti pluriennali per servizi cloud sono aumentati fino a 26 miliardi di dollari. Questo significa che gran parte della fornitura futura è già stata prenotata da hyperscaler e laboratori di ricerca avanzata. Le aziende enterprise, quindi, non entrano in un mercato aperto ma si posizionano in fondo a una coda molto lunga.
Lo squilibrio nell'offerta non riguarda solo i chip in sé, ma tutto l'ecosistema circostante: lunghi tempi di produzione, disponibilità limitata di packaging avanzato e HBM, necessità di anticipi consistenti e impegni non cancellabili per garantirsi capacità futura. Gogia identifica la decisione più critica per i CIO: "Progettare la strategia AI attorno a Nvidia o attorno al rischio Nvidia?". Le due opzioni non sono equivalenti: una strategia Nvidia-centrica richiede di accettare la piattaforma come standard aureo, ordinare con 12 mesi di anticipo, utilizzare più OEM con configurazioni identiche, negoziare anticipi con il team finanziario e progettare timeline di programma che possano assorbire variazioni nelle date di consegna.
Al contrario, una strategia centrata sul rischio significa "riconoscere che Nvidia è centrale ma non può essere l'unico percorso, e trattare la diversificazione non come dibattito logico ma come strumento per garantire resilienza". In un mercato dove la domanda continua a superare l'offerta in modo così drammatico, questa seconda opzione potrebbe rivelarsi non solo prudente, ma necessaria per la sopravvivenza competitiva delle organizzazioni nell'era dell'intelligenza artificiale.