Cerebras Systems, startup californiana nel settore dei semiconduttori fondata nel 2015 da Andrew Feldman, ex dirigente di SeaMicro, ha debuttato al NASDAQ con il ticker CBRS raccogliendo 5,55 miliardi di dollari attraverso la propria IPO. Il primo giorno di contrattazioni, le azioni sono balzate di quasi il 70%, portando la valutazione complessiva della società oltre i 66 miliardi di dollari — un risultato che pochi attori nel segmento chip hanno mai raggiunto.
Il percorso verso la quotazione non è stato lineare: la società aveva già presentato una prima istanza S-1 alla SEC nel settembre 2024, salvo poi ritirarla silenziosamente un anno dopo. Il motivo era strutturale: quell'S-1 rivelava che l'87% dei ricavi dipendeva da un solo cliente, il provider cloud emiratino G42, una concentrazione che avrebbe reso difficile convincere gli investitori istituzionali della solidità del modello di business.
Nel frattempo, la società ha diversificato il portafoglio clienti in modo significativo. Tra i nuovi nomi figurano Meta, AWS, Mistral AI, Perplexity, Notion, Cognition e AlphaSense. Feldman ha dichiarato apertamente che l'S-1 originale non rifletteva ancora i frutti di questa crescita, e che l'azienda avrebbe avuto "una storia migliore da raccontare agli investitori" attendendo. La strategia ha pagato.
L'architettura alla base del vantaggio competitivo di Cerebras è il Wafer-Scale Engine (WSE), un chip delle dimensioni di un piatto da cena — circa 46.225 mm² — che si contrappone radicalmente all'approccio dominante, basato sull'assemblaggio di più chip più piccoli collegati tramite interconnessioni ad alta velocità come NVLink di Nvidia. Alla terza generazione, il WSE-3 opera su processo TSMC a 5nm, offrendo 125 petaFLOPS di calcolo sparso a precisione 16-bit e una larghezza di banda di memoria pari a 21 petabyte al secondo — quasi 1.000 volte superiore a quella delle nuove GPU Rubin di Nvidia.
Il punto di svolta strategico è arrivato a metà 2024, quando la società ha lanciato una piattaforma di inferenza come servizio, entrando in concorrenza diretta con Groq e SambaNova. La massiccia memoria SRAM on-chip, inizialmente pensata per l'addestramento dei modelli, si è rivelata particolarmente adatta alla generazione rapida di token nei modelli linguistici di grandi dimensioni (LLM). Secondo Artificial Analysis, i sistemi Cerebras superano i 2.200 token al secondo con GPT-OSS 120B High, 2,8 volte più veloce del prossimo concorrente tra i cloud GPU chiusi.
Tuttavia, il quadro post-IPO presenta sfide concrete. Il WSE-3, pur performante, è considerato prossimo all'obsolescenza tecnologica. L'acquisizione di Groq da parte di Nvidia ha dotato il principale rivale di una piattaforma di inferenza basata su SRAM analoga, riducendo il differenziale competitivo. La capacità di 44 GB di SRAM del WSE-3 rimane un collo di bottiglia per modelli con un trilione di parametri come Kimi K2, che richiederebbe tra 12 e 48 acceleratori in funzione del formato dei pesi.
Sul fronte delle collaborazioni, AWS ha annunciato l'integrazione dei propri acceleratori Trainium3 con i sistemi WSE-3 di Cerebras per potenziare la propria infrastruttura di inferenza — schema simile a quello che Nvidia sta replicando con Groq. Ulteriori partnership con AMD o altri produttori di chip sembrano plausibili, posizionando la società come fornitore di acceleratori per la fase di decodifica nel pipeline di inferenza.
Il debutto in borsa cristallizza dunque un momento di transizione: la società ha dimostrato di saper costruire tecnologia differenziante e di reggere il confronto sul mercato dell'inferenza, ma ora opera sotto la pressione degli azionisti quotati, che attendono un WSE-4 capace di mantenere il vantaggio architetturale. La domanda più rilevante per il settore è se una capitalizzazione da 66 miliardi di dollari rifletta fondamentali solidi o l'euforia del mercato sull'intelligenza artificiale — un mercato dove la distanza tra valutazioni e ricavi reali rimane spesso difficile da misurare.