Microsoft ha confermato il proprio impegno per lo sviluppo di chip proprietari che possano sostenere i data centere dedicati all'IA. Una strategia che può liberare l'azienda dal legame con fornitori esterni come Nvidia e AMD, e che in qualche modo emula le strategie di Google e Amazon - che producono i propri chip già da diverso tempo. Durante una conversazione moderata da CNBC, il Chief Technology Officer di Microsoft Kevin Scott ha chiarito le motivazioni dietro questa strategia. Per un provider cloud di dimensioni globali, il rapporto prezzo-prestazioni rappresenta l'unica metrica che conta davvero, e fino ad oggi Nvidia ha offerto le migliori soluzioni in questo senso. Tuttavia, Scott ha dichiarato di essere disposto a esplorare qualsiasi alternativa per soddisfare la crescente domanda di potenza computazionale.
Quando gli è stato chiesto se l'obiettivo a lungo termine fosse quello di utilizzare principalmente silicio Microsoft nei data center, Scott ha risposto senza esitazioni: "Sì, assolutamente". La visione dell'azienda va oltre i semplici processori, abbracciando un approccio olistico che include reti, sistemi di raffreddamento e la libertà di prendere decisioni ottimali per ogni specifico carico di lavoro.
I primi passi verso l'indipendenza tecnologica
Microsoft ha rivelato i suoi acceleratori AI Maia solo alla fine del 2023, arrivando in ritardo rispetto alla concorrenza. Il primo chip della famiglia, il Maia 100, ha già dimostrato la sua utilità pratica permettendo di liberare capacità GPU trasferendo GPT-3.5 di OpenAI sul silicio proprietario nel corso del 2023.
Nonostante questo successo iniziale, le specifiche tecniche del Maia 100 mostrano ancora un divario significativo rispetto ai competitor. Con 800 teraFLOPS di prestazioni BF16, 64GB di memoria HBM2e e una larghezza di banda di 1,8TB/s, il chip rimane indietro rispetto alle GPU più avanzate di Nvidia e AMD. Microsoft starebbe già lavorando su una seconda generazione dell'acceleratore Maia, prevista per il prossimo anno, che dovrebbe offrire prestazioni più competitive in termini di calcolo, memoria e interconnessione.
Un panorama competitivo in evoluzione
L'esperienza di Google e Amazon con i rispettivi TPU e acceleratori Trainium offre interessanti spunti di riflessione. Nonostante abbiano implementato decine di migliaia di questi chip proprietari e conquistato clienti di alto profilo come Anthropic, entrambe le aziende continuano a utilizzare massicciamente GPU Nvidia e AMD nelle loro piattaforme cloud. Questo accade principalmente perché i clienti continuano a richiedere specificamente queste soluzioni consolidate.
L'ecosistema di chip personalizzati di Microsoft si estende ben oltre gli acceleratori AI. L'azienda sta sviluppando anche un processore CPU chiamato Cobalt e una serie completa di chip dedicati alla sicurezza delle piattaforme, progettati per accelerare le operazioni crittografiche e proteggere gli scambi di chiavi attraverso i suoi vasti domini di data center. Questa strategia multifronti dimostra l'ambizione di Redmond di acquisire un controllo sempre maggiore sulla propria infrastruttura hardware, riducendo la dipendenza da fornitori esterni in settori strategici per il futuro dell'intelligenza artificiale.