• 20 Giugno

    L’Intelligenza Artificiale consuma grandi quantità di acqua.

     

  • Home
  • Notizie
  • L’Intelligenza Artificiale consuma grandi quantità di acqua.

ChatGPT, Bard, AI Generativa, Deep Learning. Nel 2023 sembra non si sia parlato d’altro, quanto meno sul versante dell’innovazione digitale e tecnologica. L’Intelligenza Artificiale ha calamitato la nostra attenzione e, per i risultati dirompenti che promette, è destinata a modificare nel profondo numerosi ambiti della società.

Sull’AI si dice che genererà disuguaglianze e crescerà in modo sempre meno sostenibile. Non andrà così, pensiamo che verranno trovate le giuste contromisure, a patto che si abbia consapevolezza di ogni potenziale squilibrio, compreso quello di un forte impatto ambientale. Si ha la convinzione errata che l’acqua dolce sia una risorsa infinita, quando invece sappiamo che la sua scarsità è un problema globale che colpisce soprattutto le comunità più vulnerabili, limitandone l’utilizzo per i bisogni primari. Conoscere meglio la situazione è fondamentale per programmare una sostenibilità a lungo termine.

Per Water Footprint si intende la quantità totale di acqua utilizzata sia per raffreddare i Data Center che per generare elettricità. Il consumo diretto riguarda l’acqua che evapora o viene scaricata durante il processo di raffreddamento dei server. Viene attinta solo da fonti di acqua dolce e pulita, non è riciclata ed è essenziale per il controllo dell’umidità delle strutture. Il consumo indiretto si riferisce all’acqua necessaria per la produzione dell’elettricità che alimenta i server.

Una ricerca della University of California, Riverside (nomen omen) rivela come l’impronta idrica dei modelli di Intelligenza Artificiale è ingente, ma ad oggi trascurata. Si parla spesso delle emissioni di CO2, più raramente ci si focalizza sull’enorme impiego di acqua necessaria per l’addestramento e l’implementazione degli algoritmi. Utilizzando dati pubblici e applicando modelli matematici, i ricercatori hanno ricavato statistiche attendibili e piuttosto dettagliate. Ecco qualche esempio concreto.

GPT-3
Il solo training di GPT-3 presso i Data Center statunitensi di Microsoft comporta un consumo diretto di 700.000 litri di acqua dolce pulita. Questo numero triplica e diventa 2.100.000 litri se misurato nelle strutture asiatiche, decisamente meno all’avanguardia. Il consumo indiretto per la generazione di elettricità è pari a 2,8 milioni di litri, L’impronta idrica totale arriva dunque a 3,5 milioni di litri negli Stati Uniti e a 4,9 milioni di litri in Asia, secondo qualche stima sufficienti per produrre circa 2.600 BMW o 2.200 Tesla. Senza contare il fatto che non ci sono dati pubblici per analizzare versioni più avanzate quali GPT-4 e che i numeri tenderanno a salire in modo esponenziale.

ChatGPT
La piattaforma di OpenAI arriva a consumare l’equivalente di una bottiglia d’acqua da 1/2 litro per ogni conversazione con 20/50 domande e risposte. Sembra poco, ma non lo è. Considerando che al momento il Chatbot ha più di 100 milioni di utenti attivi, molti dei quali settimanalmente impegnati in più conversazioni, si può perdere facilmente il conto totale degli ettolitri impiegati.

Big Tech
Nel 2014, l’impronta idrica complessiva delle operazioni nei Data Center statunitensi è stata stimata a 626 miliardi di litri. Nel 2021, i Data Center di Google solo negli Stati Uniti hanno consumato 12,7 miliardi di litri di acqua dolce per le torri di raffreddamento, il 90% circa era potabile. Grandi Compagnie tecnologiche come Google, Microsoft, Meta e Amazon si sono impegnate a diventare “Water Positive” entro il 2030, cioè a salvaguardare più acqua di quanta ne utilizzino. Per ora quanto a consumi idrici non scherzano.

L’impronta idrica dell’Intelligenza Artificiale può variare in base a vari fattori, come le dimensioni del modello generativo, l’efficienza nella produzione di elettricità e l’ubicazione stessa dei Data Center. Dunque come si può ridurre la Water Footprint? Secondo lo studio, sfruttando fonti rinnovabili come energia eolica o solare, progettando sistemi di raffreddamento a basso consumo e algoritmi a ridotta potenza di calcolo.

Soprattutto, decidendo dove e quando addestrare i modelli di Intelligenza Artificiale di grandi dimensioni. Si possono programmare le attività dell’AI in determinati orari e luoghi a più basso impatto energetico, come
quando si sceglie la notte per ricaricare gli smartphone e le auto elettriche. Serve però sapere che la riduzione del carbonio e la conservazione dell’acqua potrebbero essere in contrasto in termini di efficienza. Da una parte segui il sole, dall’altra non lo segui. Conoscenza, metodologia e responsabilità: everything counts in large amounts.

Qui la relazione “Making AI Less Thirsty”: https://arxiv.org/pdf/2304.03271.pdf

Condividi l'articolo

Facebook
Twitter
Linkedin

29 Marzo

SC-Project a tutto gas anche in Svizzera!

16 Febbraio

Inizia l’era dello Spatial Computing.

24 Novembre

Compliance community: il punto di contatto tra Regole, Tecnologia e Sapere Esperto

 

Monitorimmobiliare.it

Il Real Estate visto dai Leader

Scopri il progetto

 

electrade.it

Il riferimento per il Trading energetico

Scopri il progetto

Scarica la Brochure