Il dominio apparentemente incontrastato di Nvidia nel mercato dei chip per l'intelligenza artificiale potrebbe presto trovarsi di fronte a una sfida più concreta del previsto. Google sta infatti accelerando sul fronte dei suoi processori personalizzati, le Tensor Processing Units (TPU), che dopo anni di utilizzo prevalentemente interno stanno diventando un'opzione sempre più appetibile per i grandi clienti tecnologici. Il mese scorso le azioni di Nvidia hanno subito un crollo in seguito a indiscrezioni secondo cui Meta, uno dei suoi principali acquirenti, starebbe valutando un accordo per utilizzare proprio i chip di Google.
L'interesse del mercato verso queste alternative non è casuale. Morgan Stanley ha recentemente rivisto al rialzo le proprie previsioni, stimando che nel 2027 verranno acquistati 5 milioni di TPU Google, con una crescita fino a 7 milioni nel 2028. Ogni mezzo milione di chip venduti potrebbe generare circa 13 miliardi di dollari di ricavi aggiuntivi per Mountain View entro il 2027, trasformando quello che era essenzialmente un prodotto ad uso interno in un'attività commerciale di rilievo.
Un'architettura pensata per l'intelligenza artificiale
La differenza sostanziale tra i chip Google e quelli Nvidia risiede nella loro concezione originaria. Le GPU (unità di elaborazione grafica) di Nvidia, lanciate nel 1999, erano inizialmente destinate al mercato videoludico. Solo in seguito i ricercatori scoprirono che potevano essere impiegate efficacemente per l'addestramento di reti neurali, spingendo l'azienda a concentrarsi sul settore dell'intelligenza artificiale.
Le TPU di Google nascono invece oltre dieci anni fa con un obiettivo preciso: rispondere alle esigenze specifiche del machine learning. Il progetto, guidato da Jonathan Ross (oggi CEO di Groq), si basa su circuiti integrati specializzati che incorporano un particolare sistema definito "array sistolico". Questa architettura consente un flusso dati più costante attraverso il chip, riducendo la necessità di recuperare continuamente informazioni dalla memoria, un vantaggio significativo per determinate operazioni.
Il vantaggio economico su grande scala
Dove i processori Google eccellono davvero è nel rapporto costo-efficienza quando vengono impiegati in grandi quantità. È possibile far lavorare migliaia di TPU simultaneamente in un singolo "pod", e grazie alla loro maggiore velocità in specifici calcoli, questa configurazione può risultare economicamente più vantaggiosa rispetto a soluzioni basate su GPU. L'ultima generazione "Ironwood", resa disponibile a novembre, offre prestazioni superiori di oltre quattro volte rispetto alla versione precedente, sia nell'addestramento dei modelli che nell'inference, il processo attraverso cui un modello già addestrato elabora richieste e svolge compiti specifici.
Questo aspetto potrebbe rivelarsi cruciale man mano che le aziende incrementano gli investimenti proprio nella fase di inference, dove Google sostiene che le sue TPU più recenti eccellano particolarmente. Con l'aumento delle dimensioni dei grandi modelli linguistici, inoltre, Google ha potenziato la larghezza di banda della memoria delle TPU più recenti per gestire carichi di lavoro sempre più impegnativi.
Il muro del software CUDA
Nonostante i vantaggi tecnici ed economici, esiste un ostacolo significativo che frena la migrazione dai chip Nvidia a quelli Google: il software CUDA. Questo ambiente di programmazione, sviluppato da Nvidia, permette alle applicazioni standard di utilizzare le GPU per attività di calcolo generale, non solo grafiche. Il punto critico è che CUDA funziona esclusivamente con i chip Nvidia, creando una forma di dipendenza tecnologica difficile da spezzare.
Google sta tentando di modificare questo equilibrio. L'azienda sta investendo risorse significative per migliorare il supporto delle TPU a Pytorch, uno strumento molto popolare per lo sviluppo di applicazioni AI creato all'interno di Meta. I dati di mercato suggeriscono che Pytorch registra una domanda molto superiore rispetto a Tensorflow, il software proprietario di Google, e questa incompatibilità rappresenta un freno alla diffusione delle TPU.
Chi usa già i processori di Google
Fino a oggi, Google rimane il principale utilizzatore delle proprie TPU, impiegandole trasversalmente in prodotti come Search, Maps e per l'addestramento del suo modello Gemini 3. Tuttavia, la lista dei clienti esterni sta crescendo. Apple ha utilizzato le TPU per addestrare il proprio modello AI interno, come riportato in precedenza. A ottobre, Anthropic ha annunciato un accordo importante che prevede l'utilizzo di fino a un milione di TPU, con ordini totali che secondo Broadcom (partner produttivo di Google) ammontano a 21 miliardi di dollari per i chip Ironwood.
Anche Meta sta conducendo test preliminari sulle TPU di Google, sebbene non sia ancora chiaro se questo porterà a un accordo di lungo periodo. La selettività con cui Google sceglie attualmente i propri clienti potrebbe cambiare, aprendo la strada a una commercializzazione più ampia dei server basati su TPU.
Un mercato in diversificazione
Il panorama dei chip per intelligenza artificiale sta diventando sempre più articolato. Amazon ha appena presentato il suo nuovo chip personalizzato Trainium3, che promette di dimezzare i costi di addestramento e funzionamento dei modelli AI rispetto alle GPU tradizionali. Questa proliferazione di alternative specializzate non significa necessariamente che Nvidia perderà clienti, ma piuttosto che aziende e laboratori di ricerca diversificheranno i fornitori di chip invece di affidarsi a un unico provider.
Jordan Nanos di SemiAnalysis ritiene che tutte le principali aziende – Nvidia, Google e Amazon – venderanno grandi quantità di chip in futuro. "Non vediamo le TPU come una minaccia significativa per Nvidia, anche se sono un attore reale sul mercato da molti anni", ha dichiarato Nanos. Questa diversificazione potrebbe comunque erodere il potere contrattuale di Nvidia sui prezzi, anche se difficilmente provocherà un crollo improvviso della sua posizione dominante.
Per Google, lo sviluppo delle TPU non rappresenta solo un'opportunità di fatturato. L'utilizzo interno dei chip per addestrare e far funzionare i propri modelli AI crea un circolo virtuoso: l'azienda impara dalle prestazioni reali, ottiene feedback preziosi e può orientare lo sviluppo delle generazioni successive verso caratteristiche sempre più mirate alle proprie necessità tecnologiche.