News Chip Huawei difettosi minacciano modello R2 di DeepSeek
3' 3''
19/08/2025

Sviluppatore cinese di IA mantiene i piani per utilizzare chip nazionali nell'inferenza nonostante le sfide tecnologiche globali

Chip Huawei difettosi minacciano modello R2 di DeepSeek

Il mondo dell'intelligenza artificiale cinese sta vivendo un momento di grande tensione tra ambizioni nazionali e necessità tecniche concrete. La promettente azienda DeepSeek, diventata famosa per il lancio rivoluzionario del modello R1 all'inizio dell'anno, si trova ora al centro di una battaglia che va ben oltre i semplici algoritmi: da una parte la pressione governativa per utilizzare tecnologia completamente cinese, dall'altra le impietose leggi della fisica e dell'ingegneria che rendono alcuni chip semplicemente inadeguati per certi compiti. Secondo quanto riportato dal Financial Times, citando tre fonti anonime, questa tensione ha causato ritardi significativi nello sviluppo del successore di R1, costringendo l'azienda a tornare sui propri passi.

Quando la politica incontra l'ingegneria

Dopo il successo del modello R1, le autorità cinesi hanno spinto DeepSeek a utilizzare esclusivamente i processori Ascend di Huawei per l'addestramento del nuovo modello R2. Una decisione che sulla carta sembrava logica: promuovere l'industria nazionale dei semiconduttori e ridurre la dipendenza dalle tecnologie americane. Tuttavia, la realtà si è rivelata ben più complessa di quanto immaginato dai pianificatori governativi.

Mesi di lavoro intensivo, supportati da un'intera squadra di ingegneri Huawei, non sono riusciti a portare a termine nemmeno una singola sessione di addestramento completa. I chip si sono dimostrati instabili, le connessioni tra i processori troppo lente, e il software ancora troppo acerbo per gestire le enormi complessità computazionali richieste dall'addestramento di modelli linguistici di frontiera.

Il paradosso delle prestazioni teoriche

L'ironia della situazione diventa ancora più evidente quando si analizzano le specifiche tecniche. Gli acceleratori Ascend 910C di Huawei, almeno sulla carta, dovrebbero superare le prestazioni delle GPU H20 di Nvidia utilizzate attualmente da DeepSeek. Con maggiore memoria video disponibile e prestazioni in virgola mobile BF16 più che doppie rispetto alla concorrenza americana, sembravano la scelta ideale per l'addestramento di modelli linguistici avanzati.

La teoria non sempre si traduce in pratica nel mondo dell'AI

Tuttavia, l'addestramento di intelligenze artificiali rappresenta una delle sfide computazionali più complesse mai affrontate dall'umanità, richiedendo la coordinazione perfetta di decine di migliaia di processori. Come in una complessa coreografia digitale, se anche un solo elemento fallisce, l'intero processo deve ricominciare dall'ultimo punto di salvataggio, vanificando ore o giorni di calcoli.

Il ritorno alla realtà tecnologica

Frustrata dai continui fallimenti e dai ritardi accumulati, DeepSeek ha infine deciso di abbandonare i tentativi con la tecnologia Huawei per l'addestramento, relegando gli acceleratori Ascend al solo compito di inferenza - l'esecuzione dei modelli già addestrati. L'azienda è quindi tornata alle più affidabili GPU H20 di Nvidia, sacrificando le aspirazioni geopolitiche sull'altare della pragmaticità tecnica.

La situazione è resa ancora più complessa dal fatto che DeepSeek aveva ottimizzato pesantemente la propria infrastruttura software attorno all'hardware Nvidia, utilizzando persino formati dati specializzati come l'FP8. Il passaggio ai chip Huawei avrebbe richiesto una completa riscrittura del codice e l'adozione di formati dati meno efficienti, dato che gli Ascend non supportano l'FP8 e devono affidarsi a tipi di dati a 16 bit più pesanti in termini di memoria.

Strategie alternative e compromessi

Una delle ipotesi più plausibili è che DeepSeek stesse tentando di utilizzare i processori Huawei specificamente per la fase di apprendimento per rinforzo, un processo che richiede l'elaborazione di enormi quantità di dati per conferire al modello capacità di "ragionamento" avanzate. Questo spiegherebbe perché le fonti parlano specificamente di R2 piuttosto che di un modello V4, dato che R1 era basato sul precedente modello V3 dell'azienda.

La vicenda assume contorni ancora più significativi considerando che Bloomberg ha recentemente riportato come le autorità cinesi stiano scoraggiando gli sviluppatori di modelli AI dall'utilizzare gli acceleratori H20 di Nvidia, specialmente per progetti governativi sensibili. Un paradosso che mette in luce le contraddizioni tra aspirazioni di sovranità tecnologica e necessità operative concrete nel competitivo settore dell'intelligenza artificiale.

Condividi questo contenuto