Entro la fine del 2025, si prevede che quasi metà dell’energia consumata dai data center sarà utilizzata dai sistemi di intelligenza artificiale. Questa previsione arriva da uno studio di Alex de Vries-Gao, fondatore del sito Digiconomist che si occupa di sostenibilità tecnologica. Lo studio analizza il consumo energetico dei processori prodotti da aziende come Nvidia, AMD e Broadcom, che sono utilizzati per addestrare e far funzionare i modelli di IA.
Secondo l’Agenzia Internazionale per l’Energia, nel 2024 tutti i data center, escludendo quelli dedicati al mining di criptovalute, hanno consumato circa 415 terawattora di elettricità. De Vries-Gao stima che già oggi l’IA rappresenti il 20% di questo consumo, e che entro fine anno possa arrivare a coprirne quasi il 50%. Per fare un paragone, l’energia richiesta dall’IA potrebbe arrivare a 23 gigawatt, ovvero più del doppio di quanto consumano tutti i Paesi Bassi. La ricerca tiene conto anche dell’energia usata per raffreddare i server, indispensabile per far funzionare le macchine che gestiscono i carichi di lavoro intensi dell’IA, come si legge su The Guardian.
Nonostante queste cifre, ci sono vari fattori che potrebbero rallentare l’aumento della domanda di hardware per IA. Per esempio, un calo nell’utilizzo di applicazioni popolari come ChatGPT, oppure le restrizioni commerciali legate a tensioni geopolitiche, come i limiti imposti alla Cina per l’accesso ai chip. Queste restrizioni hanno portato allo sviluppo di modelli di IA che utilizzano meno chip, come DeepSeek R1. De Vries-Gao osserva che anche se miglioramenti tecnologici possono rendere l’IA più efficiente in termini di consumi, questo potrebbe portare a un aumento ancora maggiore dell’uso dell’IA, bilanciando così i risparmi energetici.
Inoltre, vari Paesi stanno puntando a sviluppare sistemi di IA indipendenti, una strategia chiamata “IA sovrana”, che potrebbe ulteriormente incrementare la domanda di hardware. Un altro aspetto da considerare è che alcune startup, come Crusoe Energy negli Stati Uniti, stanno realizzando data center alimentati a gas naturale. Questo significa che la crescente infrastruttura per l’IA potrebbe aumentare la dipendenza dai combustibili fossili, con conseguenze negative per l’ambiente.
Infine, OpenAI ha annunciato l’avvio di un progetto Stargate negli Emirati Arabi Uniti, il primo data center di questo tipo al di fuori degli Stati Uniti, segnalando l’espansione globale dell’infrastruttura energetica legata all’intelligenza artificiale.