In un recente post sul suo blog, il CEO di OpenAI Sam Altman ha scritto che ogni richiesta a ChatGpt consuma in media 0,34 wattora di elettricità (“più o meno quanto consuma un forno in poco più di un secondo”) e circa 0,000085 galloni d’acqua: “meno di un quindicesimo di quella che starebbe in un cucchiaino”.

Quando Altman parla di consumo d’acqua, si riferisce a quella utilizzata indirettamente per raffreddare i data center.

I chip che eseguono i calcoli per l’IA producono molto calore, e servono sistemi di raffreddamento per mantenerli operativi. Quell’acqua non viene “usata” dunque dall’IA, ma è necessaria al funzionamento fisico dell’infrastruttura.

Altman ha sottolineato che, col tempo, consumi e costi dovrebbero avvicinarsi sempre più a quelli dell’energia elettrica, grazie ai progressi nella tecnologia, a una maggiore efficienza dei modelli e a un’offerta di energia che sarà “abbondante a livelli radicali” nel prossimo decennio.

also, here is one part that people not interested in the rest of the post might still be interested in: pic.twitter.com/ANDhHu9g3g