Nessuno ti ha detto cosa succede davvero quando premi “invio”. Per ogni “dimmi una barzelletta” ChatGPT si beve mezza bottiglia d’acqua.

Marzo 2025, ChatGPT è l’app più scaricata al mondo. Ma tu lo sai quanto consuma ChatGPT? Per generare una mail di sole 100 parole chatgpt beve circa 519 millilitri d’acqua. Per non parlare di quel “grazie”, che scrivi al tuo BFF artificiale quando ti da una mano a fare i compitini per il prof del giorno dopo.
l’AI consuma soprattutto per il raffreddamento dei data center. Secondo un’indagine del The Times, ChatGPT consuma fino a quattro volte più di quanto inizialmente stimato.
Durante l’addestramento del modello GPT-3, Microsoft ha utilizzato circa 700.000 litri d’acqua, un volume sufficiente a coltivare il doppio della carne bovina che consuma un americano medio in un anno. Meta, per addestrare LLaMA 3.1, ha invece impiegato oltre 22 milioni di litri, una quantità che supera il fabbisogno idrico di un piccolo comune.
Axios rivela che la domanda energetica dei data center legati all’IA negli Stati Uniti potrebbe raddoppiare entro il 2030, rendendo i consumi dell’intelligenza artificiale una delle principali voci della bolletta energetica nazionale.
AI Affamata di Energia
Ogni volta che inviamo una richiesta a ChatGPT, l’elaborazione della risposta avviene in server remoti che eseguono miliardi di operazioni in pochi secondi. Secondo l’Agenzia Internazionale per l’Energia, una singola richiesta può consumare quasi dieci volte l’energia di una classica ricerca su Google.
Adesso lasciamo parlare i numeri: il nostro amichetto artificiale consuma in media 0,0029 kWh per prompt. Considerando oltre 200 milioni di richieste al dì, il totale giornaliero supera i 621 megawattora, equivalente al consumo elettrico di oltre 21.000 famiglie americane in un giorno. Su base annua, si stima un consumo superiore a 226 GWh, pari all’energia necessaria per caricare completamente più di 3 milioni di auto elettriche.

I Costi Economici per le Aziende
Sam Altman, CEO di OpenAI ci dice che anche solo un “grazie” rivolto al chatbot ha un costo per l’azienda, in termini di energia e calcolo. Si parla di decine di milioni di dollari spesi ogni anno da OpenAI solo per mantenere attivo il servizio.
Di fronte a questo scenario, le big tech provano a correre ai ripari. Microsoft vuole diventare “water positive” entro il 2030, e restituire perciò più acqua rispetto a quella utilizzata (ma l’espansione incessante dei data center rischia di superare gli sforzi attuali).
L’intelligenza artificiale è uno degli strumenti più promettenti del nostro tempo, ma la sua adozione su larga scala comporta un impatto ambientale che NON POSSIAMO IGNORARE. Ogni messaggio generato da ChatGPT è frutto di una lunga catena di consumo invisibile: elettricità, acqua, silicio.
Si, stiamo prosciugando il pianeta per farci scrivere la bio di LinkedIn.
Illustrazioni: Aurora Longo