I data center che si nascondono dietro all’intelligenza artificiale paradossalmente oggi non gestiscono adeguatamente i consumi energetici, ma un gruppo di ricercatori della startup Emerald AI ha dimostrato che un software potrebbe contribuire a cambiare tutto. In pratica si potrebbero ridurre i picchi di consumo energetico mantenendo inalterate le prestazioni. Ad esempio in Europa la domanda di carico totale per i data center AI è destinata a passare dai 10 Gigawatt del 2024 a 35 Gigawatt entro il 2030, con un consumo energetico annuo corrispondente quasi triplicato, passando da 62 a oltre 150 Terawattora (TWh). In pratica si parla del 5% del consumo totale di elettricità del continente solo per l’intelligenza artificiale. In Cina la prospettiva è di 600 TWh, sempre entro il 2030. Ecco spiegati i motivi per cui sarebbe strategico poter ridurre i consumi. Il tema di fondo però è che questi non sono lineari nei data center AI, ma hanno un andamento variabile in relazione alle attività. Cambiano a seconda dei carichi di elaborazione e raffreddamento “con caratteristiche e modelli AI distinti nelle fasi di preparazione, addestramento, messa a punto e inferenza”.

IA sempre più inquinante. Emissioni di CO2 pari a quelle prodotte da New York in un anno