L'universo dei chip per intelligenza artificiale si arricchisce di un nuovo protagonista che promette di rivoluzionare il mercato dell'inferenza nei data center. Qualcomm, colosso tecnologico noto principalmente per i processori Snapdragon destinati a smartphone e laptop, ha svelato la sua strategia per competere con i giganti del settore come Nvidia e AMD. La mossa segna il ritorno dell'azienda nel segmento dei data center dopo precedenti tentativi falliti con processori tradizionali, ma questa volta punta tutto su una proposta differente.
Una scommessa sul futuro dell'inferenza AI
L'annuncio ruota attorno a due schede acceleratrici denominate AI200 e AI250, progettate specificamente per gestire carichi di lavoro di inferenza. La società californiana non si è dilungata in specifiche tecniche dettagliate, ma ha rivelato elementi chiave che delineano la sua strategia competitiva. Il modello AI200 vanta 768 GB di memoria LPDDR per singola scheda, una quantità significativamente superiore rispetto alle soluzioni di punta offerte dai concorrenti diretti.
Ancora più ambiziosa è la proposta dell'AI250, prevista per il 2027, che secondo Qualcomm rappresenterà "un salto generazionale" grazie a un'architettura di memoria innovativa basata sul near-memory computing. L'azienda sostiene che questa soluzione garantirà una larghezza di banda di memoria efficace superiore di oltre 10 volte rispetto alle attuali proposte, con consumi energetici drasticamente ridotti.
Il nodo cruciale dell'efficienza energetica
La comunicazione di Qualcomm si concentra su tre criticità che affliggono gli operatori di infrastrutture AI: costi energetici, dissipazione del calore e capacità di memoria. Il messaggio sottostante è chiaro: offrire maggiore capacità di inferenza utilizzando meno risorse. Le schede verranno commercializzate integrate in rack preconfigurati con raffreddamento a liquido diretto per ottimizzare l'efficienza termica, connettività PCIe per lo scale-up ed Ethernet per lo scale-out, con un consumo energetico complessivo per rack di 160 kW.
L'approccio di Qualcomm appare coerente con le dichiarazioni rilasciate a maggio dal CEO Cristiano Amon, che aveva anticipato l'intenzione di entrare nel mercato dei data center AI solo con "qualcosa di unico e dirompente". All'epoca aveva accennato all'intenzione di sfruttare l'esperienza dell'azienda nella progettazione di CPU per "pensare a cluster di inferenza che garantiscano alte prestazioni con bassissimo consumo energetico".
L'eredità delle NPU mobili
Interessante notare come l'annuncio non menzioni affatto le CPU, nonostante le precedenti dichiarazioni di Amon. Qualcomm fa invece riferimento alla propria "leadership tecnologica nelle NPU", chiaro rimando alle unità di elaborazione neurale marchiate Hexagon integrate nei processori per dispositivi mobili e laptop. L'ultima iterazione Hexagon, incorporata nel SoC Snapdragon 8 Elite, include 12 acceleratori scalari e otto vettoriali, supportando precisioni INT2, INT4, INT8, INT16, FP8 e FP16.
Il primo cliente annunciato è Humain, azienda saudita specializzata in intelligenza artificiale, che punta a implementare 200 megawatt di soluzioni rack AI200 e AI250 a partire dal 2026 per offrire servizi di inferenza ad alte prestazioni nel Regno e globalmente. Tuttavia, considerando che l'AI250 non sarà disponibile prima del 2027, l'annuncio risulta difficile da valutare nella sua concretezza.
Interrogativi ancora aperti
Qualcomm ha omesso informazioni cruciali: non è chiaro se i principali hyperscaler abbiano manifestato interesse per queste soluzioni, né se saranno utilizzabili in ambienti on-premise. L'assenza di dettagli tecnici approfonditi rende prematuro giudicare la reale competitività dei nuovi acceleratori rispetto alle alternative consolidate sul mercato. Ciononostante, Wall Street ha accolto con favore la notizia: le azioni di Qualcomm sono balzate dell'11% lunedì, segno che gli investitori credono nelle potenzialità di questo nuovo capitolo nella storia dell'azienda.
Resta da vedere se questa seconda incursione nel mondo dei data center avrà maggior successo rispetto ai precedenti tentativi falliti con le CPU tradizionali. Il contesto attuale è certamente diverso: la domanda di soluzioni AI continua a crescere e l'efficienza energetica sta diventando un fattore sempre più determinante nelle scelte d'acquisto delle infrastrutture.