Nel 2023 le due big tech hanno consumato 24 TWh (terawattora) di energia elettrica, pari all’intero fabbisogno annuale dell’Azerbaijan. In aumento anche le emissioni di CO2 e il consumo di acqua dolce. Per ovviare al problema, si cercano forme alternative di energia
Come funziona l’Intelligenza artificiale generativa? Le risposte ai prompt (le istruzioni espresse testualmente che descrivono all’AI il compito da svolgere) si generano attraverso calcoli che avvengono nei data center di tutto il mondo. Come dimostrano i dati, questi processi consumano un enorme quantitativo di energia. “Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell’Università di Washington. – I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori”. Moazeni stima infatti che, dal punto di vista computazionale, le applicazioni di AI generativa siano da cento a mille volte più esigenti.
Dall’analisi effettuata dall’esperto del settore Michael Thomas sulla base dei dati della U.S Energy Information Administration (EIA) e sui rapporti ambientali di Google e Microsoft, emerge un consumo rispettivo di 25 e 24 Twh (terawattora) di energia elettrica nel 2023, che ha portato le due big tech a superare quello di oltre 100 Paesi. In Italia ad esempio, lo scorso anno se ne sono consumati circa 300, per soddisfare il fabbisogno energetico di più di 60 milioni di cittadini; o la Nigeria che ha soddisfatto le esigenze di quasi 220 milioni di abitanti con 32 TWh.
Ancora prima delle risposte fornite, l’intelligenza artificiale generativa per funzionare al meglio ha bisogno di essere istruita e alimentata da un altissimo numero di informazioni e dati. Ed è proprio questa fase di “addestramento” che è considerata, in generale tra le più energivore.
Per tutte queste ragioni, sono Google e Microsoft stesse a imputare all’AI gli incrementi nei consumi di energia elettrica degli ultimi anni, nonostante con le altre big tech si fossero impegnate a ridurli entro il 2030. Grandi passi indietro, quindi, sotto il profilo della sostenibilità, come dimostrano anche i dati relativi alle emissioni di CO2, in aumento per Google del 48% dal 2019 e del 30% per Microsoft dal 2020.
“L’impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati”, afferma Junchen Jiang, ricercatore dell’Università di Chicago. Come già chiarito da Moazeni, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli stanno diventando giganteschi.
Oltre all’elettricità, l’intelligenza artificiale generativa ha necessità di altre risorse naturali, come l’acqua dolce usata per raffreddare i data center, stimata in milioni di litri. Si tratta, quindi, di una tecnologia innovativa, che desta tanta curiosità e che è sempre più diffusa, generando profitto alle aziende, che deve, però, fare i conti con la scarsità di risorse.
E, a questo proposito, Elon Musk ha già indicato una data: entro il 2025 non ci sarà abbastanza energia per sostenere la crescita dell’AI.
Per questo si cercano alternative valide e misure contenitive dei consumi attuali. Tra le energie alternative, le aziende pensano anche al nucleare come Microsoft, che ha stretto una partnership con Helion per iniziare a produrre energia tramite fusione nucleare. Anche Sam Altman, amministratore delegato di OpenAI, sta pensando a questa fonte energetica, mentre Google ha individuato un’alternativa valida nell’energia geotermica e ha già firmato un primo accordo con Fervo.
Anche ricercatori e sviluppatori stanno studiando approcci nuovi per ridurre l’energia necessaria a creare e sostenere i nuovi strumenti digitali affidandosi a chip più efficienti, oltre a sperimentare modelli più piccoli che richiedono meno calcoli.