L’innovazione nell’Ai sta raggiungendo vette straordinarie, ma questa corsa alle prestazioni porta con sé un costo energetico senza precedenti. Un nuovo studio del TeraByte Interconnection and Package Laboratory (TeraLab) del Korea Advanced Institute of Science and Technology (Kaist) rivela che i chip Ai di prossima generazione potrebbero richiedere un’enorme quantità di energia, fino a 15.360 watt per modulo entro il 2035, mettendo a dura prova le attuali tecnologie di alimentazione e raffreddamento.
Questo aumento deriva dall’evoluzione della memoria ad alta larghezza di banda (Hbm), che si prevede passerà da Hbm4 nel 2026 a Hbm8 entro il 2038. Sebbene ogni passo prometta prestazioni superiori, porta anche a requisiti energetici e output termici esponenzialmente più elevati. Si stima che la potenza della sola Gpu passerà dagli 800W del 2026 a 1.200W entro il 2035, e quando accoppiata con i 32 stack Hbm, ciascuno dei quali consuma 180W, il consumo totale di un modulo può raggiungere i 15.360W. Questo scenario è particolarmente rilevante per i carichi di lavoro AI, come i grandi modelli linguistici (Lllm) e i modelli fondativi, che richiedono un’enorme larghezza di banda di memoria e potenza di elaborazione. Di fatto il consumo di energia rappresenta il più grande collo di bottiglia per l’Ai, con i requisiti di calcolo che crescono esponenzialmente.






