Tutte le informazioni e le domande che diamo in pasto a cose come ChatGPT, Google AI Overviews o Midjourney, infatti, hanno bisogno di un posto fisico dove essere conservate (e questo vale per tutte le cose che stanno online). Se ti è capitato di dover salvare foto e documenti su un disco esterno, sai benissimo di cosa stiamo parlando: nel caso dell’intelligenza artificiale, l’hard disk è un gigantesco “data center” che, per funzionare, fa affidamento sull'elettricità.
Ogni volta che Google crea una risposta con AI Overviews – dice il ricercatore Alex de Vries – impiega circa 3 wattora, cioè l’energia che ci vorrebbe per una telefonata di un’ora da un fisso. Per generare un’immagine o un video, invece, il consumo è ancora più alto.
Le IA però – specialmente quelle generative, cioè che creano qualcosa elaborando altre informazioni – non consumano solo quando vengono utilizzate: i modelli linguistici su cui sono sviluppate queste tecnologie sono a loro volta un tipo di intelligenza artificiale che usa le reti neurali artificiali (ai cui inventori è stato appena dato un premio che potresti conoscere) per continuare a studiare, diventare più “intelligente” e dare risposte più elaborate e precise. Sempre il sito statunitense The Verge ha calcolato che per “far allenare” GTP-3 (modello già superato da GTP-4) sono stati consumati poco meno di 1300 megawattora, cioè più o meno quanto consumano 130 case negli Stati Uniti in un anno.
Una tale richiesta di energia sta cannibalizzando determinate aree del mondo, col rischio di causare sovraccarichi. E le previsioni a breve termine per i data center sono già abbastanza precise: la Svezia raddoppierà i consumi entro il 2030, mentre nel Regno Unito aumenteranno del 500% sempre entro questo decennio. Nel Stati Uniti, sempre entro il 2030, il settore dell’intelligenza artificiale arriverà a un 8% del consumo totale di energia elettrica.
Questo potrebbe creare problemi a tutto il lavoro fatto per dismettere le fonti di energia inquinanti senza ridurre drasticamente la domanda di energia.
Il rischio, infatti, è che molte piccole aziende che gestiscono i data center per conto dei “grandi nomi” non siano così esigenti sulla provenienza dell’energia che comprano per tenere attivi i server. Questo, però, potrebbe essere un problema per società come Microsoft, che non si è (ancora) tirata indietro dal suo obiettivo di raggiungere la neutralità climatica entro il 2030.