La startup cinese DeepSeek ha rimandato il lancio dell’LLM R2. La colpa pare sia dei chip Ascend di Huawei, che l’azienda ha utilizzato per allenare il modello al posto dei componenti dell’americana Nvidia, su esplicito suggerimento delle autorità cinesi. Lo riporta il Financial Times, secondo cui il lancio di R2 sarebbe dovuto già avvenire a maggio.

All'inizio di quest’anno DeepSeek aveva stupito il settore dell’IA con il lancio di R1, un LLM gratuito e Open Source capace come e più del modello GPT o1 di OpenAI, ma allenato con una spesa assai inferiore. A seguito del successo di R1, il governo cinese ha però spinto l’azienda a cercare alternative ai chip H20 dell’americana Nvidia per il training dei nuovi modelli.La scelta è così ricaduta sui chip Ascend di Huawei, che però non si sarebbero dimostrati all’altezza delle controparti d’oltreoceano. Secondo alcune fonti interne, i componenti del gigante cinese hanno problemi di stabilità e una velocità di connessione tra chip diversi inferiore rispetto agli H20. Anche il software di gestione delle operazioni di training non sarebbe all’altezza del toolkit Cuda di Nvidia.

Chris Miller: "La guerra dei chip è molto più di una lotta per la supremazia tecnologica"