L’impegno di Microsoft nello sviluppo di tecnologie a supporto dell’intelligenza artificiale dura da decenni, anche se il vero punto di svolta è avvenuto in occasione della partnership con OpenAI, cominciata ormai 5 anni ed estesa di recente. La collaborazione tra le due aziende mira a sviluppare tecnologie di supercomputing per guidare l’innovazione nel campo dell’intelligenza artificiale e supportare l’esecuzione di carichi di lavoro sempre più onerosi.
In un post sul blog dell’azienda l’autore John Roach ha illustrato la potenza dell’infrastruttura dell’azienda e la visione di Microsoft su un futuro guidato dall’IA. Tutto è nato quando l’azienda di Redmond e OpenAI hanno cominciato a lavorare su un’infrastruttura che supportasse il training dei modelli di AI e offrisse la possibilità di espanderli e potenziarli.
Dagli sforzi congiunti delle due aziende è nata un’infrastruttura senza precedenti, più grande e potente di qualsiasi altra mai sviluppata, in grado non solo di gestire modelli più estesi, ma anche di addestrarli per periodi di tempo più prolungati.
La moderna infrastruttura di Microsoft ha permesso di passare dalla ricerca condotta in laboratorio a una vera e propria industrializzazione dell’IA, come spiega Phil Waymouth, senior director di Microsoft che si occupa di gestire la partnership con OpenAI.
La piattaforma offre ai clienti Microsoft benefici del tutto nuovi, e tutta una serie di prodotti e servizi a supporto dell’high performance computing, diretti sia alle imprese enterprise che ai piccoli consumatori. Tra questi troviamo il nuovo Bing, che integra le capacità di ChatGPT, il chatbot di Viva Sales per comporre email di marketing, GitHub Copilot per gli sviluppatori e tutti i servizi di Azure OpenAI su rete cloud.
L'infrastruttura Microsoft per il training dei modelli
L'infrastruttura sviluppata da Microsoft consiste in decine di migliaia di GPU collegate tra loro secondo lo standard di comunicazione InfiniBand, che assicura elevata velocità e bassa latenza.
Le GPU sono suddivise in cluster che gestiscono il carico di lavoro. Durante una determinata fase della computazione – chiama allreduce – le GPU si scambiano le informazioni sullo stato del lavoro e si suddividono nuovamente le attività. Questo passaggio deve essere svolto prima che venga eseguita la fase successiva del processo: la potenza della rete InfiniBand risponde proprio a questa esigenza.
Microsoft ha sviluppato un’infrastruttura ottimizzata per i moderni carichi di lavoro dell’IA, insieme a diverse tecniche software in grado di supportare l’addestramento di modelli con decine di trilioni di parametri.
Negli anni l’azienda ha incrementato la potenza del cluster fino a realizzare un’infrastruttura capace di rispondere alle moderne esigenze dei clienti in termini di potenza computazionale. OpenAI è stato il primo partner a sfruttare le capacità di Azure AI sul cloud, raggiungendo i risultati di cui siamo testimoni oggi.
Azure AI offre tutte le risorse di cui le imprese hanno bisogno per addestrare i loro modelli a eseguire attività di inferenza quali la scrittura di email di marketing, il riepilogo di documenti legali e la generazione di concept per nuovi prodotti.
L’infrastruttura permette di eseguire task in maniera veloce, con la sicurezza della rete Azure e a costi ridotti. Microsoft ha anche investito nell’Open Neural Network Exchange Runtime, un motore di inferenza open-source in grado di velocizzare le attività di automazione fino a 17 volte tanto. Le capacità di Azure di scalar verticalmente e orizzontalmente e consentono ai partner Microsoft di eseguire qualsiasi carico di lavoro.
“Solo Microsoft Azure fornisce le GPU, la rete InfiniBand e un’infrastruttura IA unica necessari a sviluppare i modelli generativi su larga scala, ed è per questo che OpenAI ha scelto di collaborare con Microsoft” ha affermato Scott Guthrie, vice presidente esecutivo del gruppo Cloud e AI di Microsoft. “Azure è il posto giusto per sviluppare ed eseguire carichi di lavoro elevati”.