ENERTECH E FUTURO
18 ottobre 2024


C’è una domanda da un milione di dollari sul cambiamento climatico. Raccoglie, in qualche modo, tutte le “piccole” questioni di cui ci occupiamo spesso in questo blog (mobilità sostenibile, sprechi, energia a emissioni 0 e simili) e forse può farci da linea guida. La domanda è: il nostro stile di vita, in questo preciso momento storico, è sostenibile?

La risposta non è semplice, perché ci sono troppe variabili in gioco. La soluzione più efficiente sembra quella di combinare un consumo più oculato a un mix energetico abbastanza diversificato da ridurre il bisogno di combustibili fossili. Da novembre 2022, però, la situazione è cambiata.

Il motivo l’abbiamo in parte svelato nel titolo: con il lancio di ChatGPT 3.5 per un grande pubblico, infatti, l’utilizzo dell’intelligenza artificiale è stato definitivamente sdoganato. Per funzionare e migliorare, però, l’intelligenza artificiale ha bisogno di una quantità di energia che in questo momento facciamo quasi fatica a produrre.

Proviamo a capire insieme perché l’energia è così importante e dove potrebbe portarci la tecnologia.


Ma prima, un po’ di presentazioni 

L’intelligenza artificiale non è nata ieri, nel senso che il sogno di un sistema che possa pensare come un essere umano ha stuzzicato le fantasie dei matematici già dall’invenzione dei primi calcolatori nel 17° secolo. Per avere una data esatta, però, dobbiamo arrivare al 1956 quando, visti i primi ma sostanziali passi dell’informatica, un gruppo di informatici ha indetto una conferenza che avrebbe dato il nome “intelligenza artificiale” al neonato campo di ricerca.

Per essere più precisi, quindi, l’IA – che ogni tanto potresti trovare come AI dall’inglese “artificial intelligence” – indica sia la disciplina che un sistema, di solito informatico.

Ce lo facciamo spiegare meglio dalla Treccani:  


Per capirci meglio, i sistemi di intelligenza artificiale prendono delle informazioni e – seguendo dei modelli che indicano i limiti e gli obiettivi dell’apprendimento – studiano una serie di dati: a partire da quelli elaborano risposte, soluzioni o previsioni. Insomma, l’IA è persona molto secchiona che studia davvero tanto e, in base a quello che sa, prova a rispondere agli stimoli che le dai. 

Ovviamente il funzionamento è più complesso di così – e se vuoi approfondire, ti consigliamo questo podcast del Post –, ma quello che interessa a noi è la questione energia. Andiamo avanti.


Digitale è fisico

Tutte le informazioni e le domande che diamo in pasto a cose come ChatGPT, Google AI Overviews o Midjourney, infatti, hanno bisogno di un posto fisico dove essere conservate (e questo vale per tutte le cose che stanno online). Se ti è capitato di dover salvare foto e documenti su un disco esterno, sai benissimo di cosa stiamo parlando: nel caso dell’intelligenza artificiale, l’hard disk è un gigantesco “data center” che, per funzionare, fa affidamento sull'elettricità.

Ogni volta che Google crea una risposta con AI Overviews – dice il ricercatore Alex de Vries – impiega circa 3 wattora, cioè l’energia che ci vorrebbe per una telefonata di un’ora da un fisso. Per generare un’immagine o un video, invece, il consumo è ancora più alto.

Le IA però – specialmente quelle generative, cioè che creano qualcosa elaborando altre informazioni – non consumano solo quando vengono utilizzate: i modelli linguistici su cui sono sviluppate queste tecnologie sono a loro volta un tipo di intelligenza artificiale che usa le reti neurali artificiali (ai cui inventori è stato appena dato un premio che potresti conoscere) per continuare a studiare, diventare più “intelligente” e dare risposte più elaborate e precise. Sempre il sito statunitense The Verge ha calcolato che per “far allenare” GTP-3 (modello già superato da GTP-4) sono stati consumati poco meno di 1300 megawattora, cioè più o meno quanto consumano 130 case negli Stati Uniti in un anno.

Una tale richiesta di energia sta cannibalizzando determinate aree del mondo, col rischio di causare sovraccarichi. E le previsioni a breve termine per i data center sono già abbastanza precise: la Svezia raddoppierà i consumi entro il 2030, mentre nel Regno Unito aumenteranno del 500% sempre entro questo decennio. Nel Stati Uniti, sempre entro il 2030, il settore dell’intelligenza artificiale arriverà a un 8% del consumo totale di energia elettrica.

Questo potrebbe creare problemi a tutto il lavoro fatto per dismettere le fonti di energia inquinanti senza ridurre drasticamente la domanda di energia.

Il rischio, infatti, è che molte piccole aziende che gestiscono i data center per conto dei “grandi nomi” non siano così esigenti sulla provenienza dell’energia che comprano per tenere attivi i server. Questo, però, potrebbe essere un problema per società come Microsoft, che non si è (ancora) tirata indietro dal suo obiettivo di raggiungere la neutralità climatica entro il 2030


Ma si può risolvere?

Possibilmente senza ricorrere a energia prodotta da fonti fossili? Ci sono varie proposte sul tavolo. Come prima cosa, l’intera industria sta lavorando per rendere i chip e i server molto più efficienti, in modo che abbiano bisogno di sempre meno energia.

Oppure, molte aziende si stanno dotando di accumulatori – che sono delle gigantesche batterie – per trattenere l’energia prodotta da fonti rinnovabili e utilizzarla nei momenti di fermo (cioè di notte o in mancanza di vento). In questo modo i data center possono contare su un approvvigionamento più o meno regolare di energia pulita. 

Altre aziende, già tempo fa, avevano deciso di investire in startup che vorrebbero costruire impianti a fusione nucleare. La scienza e chi ha esperienza nel settore, però, la ritengono una pianificazione troppo ambiziosa: ne avevamo parlato diverso tempo fa sul nostro blog.

Insomma, gli investimenti vanno tutti in una direzione precisa: tecnologie più efficienti per mantenere gli obiettivi di neutralità climatica.

Quello che in questo momento sembra un problema, però, potrebbe anche diventare una risorsa. Alcune soluzioni, infatti, si propongono di sfruttare il calore di scarto – magari proprio quello prodotto dai data center – per ampliare le reti di teleriscaldamento, compensando così l’emissione di gas serra.