Non sappiamo quanto consuma l’Ai. Non esiste un metodo concordato né un database pubblico di valori. Non ci sono enti regolatori che impongano standard e i consumatori non hanno la possibilità di confrontare un modello con un altro. Non esistono report scientifici da parte dei Big dell’Ai che certifichino quanto consuma un prompt nei loro modelli linguistici di grandi dimensioni. Per dirla più dritta, alla domanda «quanto sei energivoro» ChatGpt e simili non rispondono. E di solito rispondono sempre. Come scrive il Financial Times, le emissioni dei data center necessari per addestrare e fornire servizi di Ai sono stimate al 3% del totale globale, vicine a quelle create dall’industria aeronautica. Satya Nadella, in visita a Roma nei mesi scorsi, si è lasciato sfuggire che il 3-4% dell’energia mondiale è probabilmente usata per il calcolo. «Potrebbe raddoppiare nei prossimi 5-10 anni. Ci aspettiamo che non superi il 10%».
Va riconosciuto che gli LLM non sono tutti uguali. Consumano energia elettrica sia quando apprendono inizialmente da enormi quantità di dati, fase chiamata addestramento, sia quando rispondono alle query, fase chiamata inferenza. Nel 2022, quando ha debuttato sulla Terra ChatGPT, l’addestramento era il processo più energivoro. Ora è l’inferenza a consumare la maggior parte dell’energia. Teniamo conto che a marzo ChatGpt è stata l’app più scaricata del mondo. Più dei social network.






