Quando si parla di intelligenza artificiale generativa, una delle domande più frequenti riguarda l’impatto ambientale: quanta elettricità serve per far funzionare i modelli, e quanta acqua viene impiegata per raffreddare i data center che li ospitano? Il tema è diventato ancora più acceso dopo alcune dichiarazioni del CEO di OpenAI, Sam Altman, che ha definito “totalmente false” alcune critiche sul consumo d’acqua attribuito alle query dei chatbot, sostenendo che l’azienda non userebbe più sistemi di raffreddamento evaporativo e che stime come “64 litri circa per richiesta” non sarebbero più attuali.
- 💧 Perché si parla di acqua nei data center dell’AI
- 💧 Come viene usata l’acqua: raffreddamento evaporativo e sistemi a circuito chiuso
- ⚡ Data center e rete elettrica: perché l’AI mette pressione sull’energia
- ⚡ Quanta energia consuma una query AI rispetto a una ricerca tradizionale
- ☀️ Solare, eolico e nucleare: quali alternative per alimentare l’AI
- 🏙️ Impatto locale: acqua, territorio e comunità
- 🔎 Trasparenza e sostenibilità: a che punto siamo
Al di là delle polemiche, la questione resta complessa: gli ai data center non sono tutti uguali, le tecniche di raffreddamento cambiano, e i consumi dipendono dal tipo di richiesta (testo, immagini, video) e dall’infrastruttura energetica disponibile. Quello che è certo è che, con l’aumento dell’uso dell’AI, la pressione su reti elettriche e risorse idriche è destinata a crescere, rendendo centrale il tema della trasparenza e della sostenibilità.
💧 Perché si parla di acqua nei data center dell’AI
I modelli di AI generativa richiedono enormi capacità di calcolo sia nella fase di addestramento sia in quella di utilizzo quotidiano (inferenza). I server che eseguono questi carichi di lavoro producono calore: se la temperatura sale troppo, le prestazioni calano e l’hardware può danneggiarsi. Per questo il raffreddamento è una componente critica dei data center, e in molti casi entra in gioco l’acqua.
Oggi, la discussione pubblica tende a semplificare il tema in “acqua per singola query”, ma la realtà è più articolata: l’acqua può essere usata in modi diversi, con impatti molto differenti, e spesso i dati disponibili non sono completi o non sono aggiornati per tutte le aziende.
💧 Come viene usata l’acqua: raffreddamento evaporativo e sistemi a circuito chiuso
In generale, l’acqua nei data center viene impiegata soprattutto per il raffreddamento, con due approcci principali:
Raffreddamento evaporativo: sfrutta l’evaporazione dell’acqua per assorbire calore. È efficace, ma comporta consumo d’acqua perché una parte viene trasformata in vapore e non viene recuperata.
Sistemi a circuito chiuso (closed-loop): l’acqua viene ricircolata per dissipare calore senza essere consumata tramite evaporazione. In termini di risorsa idrica, è in genere più efficiente.
OpenAI ha dichiarato di dare priorità a sistemi “a circuito chiuso o a basso consumo d’acqua” per ridurre l’impatto idrico. Questo rende plausibile l’idea che alcune stime molto elevate “per query” non siano più rappresentative in determinati contesti. Tuttavia, senza numeri pubblici e aggiornati sui consumi complessivi, non è possibile quantificare con precisione l’impronta idrica dell’azienda nel 2025.
Va inoltre considerato che, secondo un report pubblicato a gennaio 2026 da Xylem e Global Water Intelligence, il 56% dei data center utilizza ancora il raffreddamento evaporativo in qualche forma. Lo stesso studio prevede che il consumo d’acqua legato all’AI possa aumentare in modo significativo nel lungo periodo, con una crescita stimata vicina al 130% entro il 2050.
⚡ Data center e rete elettrica: perché l’AI mette pressione sull’energia
Oltre all’acqua, l’altro grande tema è l’elettricità. Alimentare data center su scala globale richiede potenza continua, 24 ore su 24. Nel 2024, gli Stati Uniti hanno rappresentato la quota più alta (45%) del consumo elettrico globale dei data center, secondo l’International Energy Agency. È un indicatore utile per capire quanto il fenomeno sia concentrato e quanto possa incidere su reti e infrastrutture.
Con l’espansione dell’AI generativa, è ragionevole aspettarsi un aumento dei consumi energetici e, di conseguenza, un’intensificazione del dibattito su come bilanciare innovazione e sostenibilità.
⚡ Quanta energia consuma una query AI rispetto a una ricerca tradizionale
Le applicazioni di AI generativa, in media, consumano più energia rispetto a una ricerca tradizionale su un motore come Google o Bing. Una stima citata nel dibattito pubblico indica che una singola query a un chatbot può richiedere fino a 10 volte l’elettricità di una ricerca. Anche qui, però, la variabilità è elevata: una richiesta testuale è molto diversa dalla generazione di immagini o video, che richiedono più calcolo e quindi più energia.
Per dare un riferimento concreto, un report di agosto 2025 ha fornito un dato specifico sui consumi di un sistema di AI: la mediana di un prompt testuale su un’app di AI risulta pari a 0,24 wattora (Wh), con emissioni stimate di 0,03 grammi di CO2 equivalente e un consumo d’acqua di 0,26 millilitri (circa cinque gocce). Nello stesso contesto, questo consumo energetico viene paragonato all’alimentazione di un microonde per 9 secondi.
Questi numeri aiutano a spostare la discussione da stime generiche a misurazioni più puntuali, pur restando legati a uno specifico ecosistema e a una specifica tipologia di prompt (testo). Per immagini e video, i consumi possono crescere sensibilmente.
☀️ Solare, eolico e nucleare: quali alternative per alimentare l’AI
Poiché i data center richiedono energia continua, le rinnovabili vengono spesso considerate una parte fondamentale della soluzione. Il solare, in particolare, è visto come un’opzione scalabile, soprattutto se abbinato a sistemi di accumulo (batterie) per gestire l’intermittenza.
OpenAI ha annunciato nell’ottobre 2025 una partnership multi-miliardaria per esplorare nuova generazione energetica con solare e storage. Nello stesso periodo, anche grandi operatori come Meta, Microsoft, Google e Amazon hanno ampliato l’uso del solare negli Stati Uniti.
Resta però un punto chiave: molti data center dipendono ancora dalla rete elettrica, che in numerose aree è alimentata in larga parte da fonti fossili come il gas naturale. Per questo, nel dibattito rientrano anche altre opzioni citate da Altman, come la necessità di muoversi rapidamente verso un mix che includa nucleare, eolico e solare.
🏙️ Impatto locale: acqua, territorio e comunità
Il tema non è solo globale: spesso l’impatto più percepibile è quello locale, perché i data center insistono su territori specifici e attingono a risorse idriche ed energetiche locali. Alcuni numeri disponibili mostrano l’ordine di grandezza del fenomeno: due data center in Iowa hanno utilizzato 1,4 miliardi di galloni d’acqua nel 2024, mentre i data center di un altro grande operatore hanno registrato 1,39 miliardi di galloni nel 2023. Sono dati che fotografano quanto il raffreddamento possa incidere, soprattutto in aree dove l’acqua è una risorsa sensibile.
Per il 2025 non sono disponibili, nel perimetro di queste informazioni, statistiche complete e comparabili per tutte le aziende citate. Ma con l’aumento degli utenti e delle richieste gestite quotidianamente dai sistemi di AI, è plausibile che consumi e attenzione pubblica continuino a crescere.
🔎 Trasparenza e sostenibilità: a che punto siamo
La discussione su AI, data center, energia e acqua sta passando da affermazioni non verificate a una fase di maggiore scrutinio. Da un lato, le aziende sostengono di adottare tecniche di raffreddamento più efficienti e di investire in energia rinnovabile; dall’altro, comunità e decisori politici chiedono dati più chiari su consumi, impatti e piani di mitigazione.
In prospettiva, la direzione sembra segnata: l’AI continuerà a crescere e con essa crescerà la necessità di rendere misurabili e confrontabili i consumi, distinguendo tra tecnologie di raffreddamento, tipologie di workload e mix energetico. Il punto non è fermare l’innovazione, ma evitare che l’espansione dell’intelligenza artificiale avvenga a scapito delle risorse idriche locali e della stabilità delle reti elettriche.

