L’IA divora elettricità

Molti osservatori hanno messo in guardia sui pericoli di cambiamento climatico connessi agli alti consumi di energia dell’IA, ma le nuove tecnologie dei chip e persino l’IA stessa potrebbero aiutare a risolvere il problema.

di Martin Giles

In una recente conferenza a San Francisco, Gary Dickerson è salito sul palco e ha fatto una previsione audace. L’amministratore delegato di Applied Materials, che fornisce apparecchiature, servizi e software per l’industria dei semiconduttori, ha avvertito che in assenza di una significativa innovazione nei materiali, nella produzione e nella progettazione di chip, i carichi di lavoro di intelligenza artificiale dei data center potrebbero coprire un decimo dei consumi mondiali di elettricità entro il 2025.

Oggi, milioni di data center in tutto il mondo assorbono un po’ meno del 2 per cento, e questa statistica comprende tutti quello che passa nelle loro vaste schiere di server. Applied Materials stima che i server che eseguono AI attualmente rappresentino solo lo 0,1 per cento del consumo globale di elettricità.

Anche altri dirigenti di azienda tecnologiche stanno suonando l’allarme. Anders Andrae di Huawei pensa che i data center potrebbero finire per consumare un decimo dell’elettricità del globo entro il 2025, anche se la sua stima riguarda tutti i possibili impieghi, non solo l’IA.

Jonathan Koomey, consulente del Rocky Mountain Institute, ritiene invece che il consumo di energia dei data center rimarrà relativamente piatto nei prossimi anni, nonostante un picco nelle attività legate all’intelligenza artificiale.

Queste previsioni ampiamente divergenti evidenziano l’incertezza sull’impatto dell’IA sul futuro dell’informatica e le implicazioni complessive per la domanda di energia.

Immagini sempre più grandi

L’intelligenza artificiale ha sicuramente fame di energia. La formazione e la gestione dei modelli di apprendimento profondo comporta la lavorazione di grandi quantità di dati, che mettono alla prova memoria e processori.

Uno studio del gruppo di ricerca OpenAI afferma che la quantità di potenza di calcolo necessaria per gestire i modelli di intelligenza artificiale sta già raddoppiando ogni tre mesi e mezzo.

La previsione di Applied Materials è, per sua stessa ammissione, legata allo scenario peggiore, per evidenziare cosa potrebbe accadere in assenza di cambiamenti di strada nei settori dell’hardware e del software.

Sundeep Bajikar, responsabile della strategia aziendale e di mercato dell’azienda, afferma che nel tempo ci sarà probabilmente uno spostamento nel mix di informazioni utilizzate per addestrare i modelli di intelligenza artificiale, con video e altre immagini che andranno a occupare una percentuale crescente del totale rispetto alle informazioni di testo e audio, che consumano meno energia.

Ci sarà anche una maggiore circolazione di informazioni per i modelli di sviluppo dei veicoli autonomi e dei sensori integrati in altri dispositivi intelligenti. E la diffusione della connettività wireless 5G superveloce renderà ancora più semplice il trasferimento dei dati da e verso i data center.

Bajikar sostiene che per far fronte a queste prospettive si imponga la necessità di nuove strategie nella produzioni di materiali per l’IA. Alcuni ricercatori ritengono che la forte richiesta di energia del settore dell’intelligenza artificiale potrebbe persino creare seri problemi ambientali.

Un team dell’Università del Massachusetts, ad Amherst, ha recentemente pubblicato uno studio che mostra come l’addestramento di un modello di intelligenza artificiale di grandi dimensioni produca quasi cinque volte le emissioni a vita di una automobile di media cilindrata.

Le risposte dell’IA

Ma le previsioni pessimistiche ignorano diversi importanti sviluppi che potrebbero limitare i consumi di energia. Uno di questi è l’infrastruttura hyperscale, vale dire l’elaborazione su scala massiva per i Big Data o il cloud computing, introdotta da aziende come Facebook e Amazon.

Questo tipo di elaborazione utilizza vaste schiere di server di base per attività specifiche. Le macchine sono più efficienti dal punto di vista energetico rispetto ai server dei centri convenzionali che devono destreggiarsi tra una gamma più ampia di funzioni.

Uno spostamento continuo verso l’hyperscale, insieme ai progressi nei sistemi di raffreddamento e in altre tecnologie, è una delle ragioni principali per cui l’aumento di consumo di energia dei nuovi data center è stato sostanzialmente annullato da miglioramenti dell’efficienza negli ultimi anni.

Sono in arrivo anche nuovi tipi di microchip. Le previsioni di Applied Materials presuppongono che i carichi di lavoro di intelligenza artificiale continueranno a essere eseguiti sull’hardware esistente, la cui efficienza migliora invece gradualmente nel corso degli anni.

Una miriade di startup e grandi aziende come Intel e AMD stanno sviluppando semiconduttori che sfruttano tecnologie come la fotonica per alimentare reti neurali e altri strumenti di intelligenza artificiale, utilizzando molta meno energia.

Koomey afferma che le proiezioni allarmistiche ignorano anche il fatto che per alcuni tipi di attività di intelligenza artificiale, come il riconoscimento di schemi, sono sufficienti dati approssimativi, senza la necessità di consumare energia per calcolare i risultati con centinaia di cifre decimali.

Paradossalmente, il contributo più grande al controllo dei consumi di energia dell’IA potrebbe venire dall’IA stessa. Google sta già utilizzando la tecnologia sviluppata da DeepMind, un’azienda acquisita nel 2014, per raffreddare i suoi data center in modo più efficiente.

L’intelligenza artificiale, che aveva già aiutato l’azienda a ridurre del 40 per cento i suoi costi per il raffreddamento, con una serie di raccomandazioni al personale di servizio, gestisce ora i sistemi di raffreddamento in totale autonomia.

L’intelligenza artificiale verrà utilizzata per ottimizzare anche altri aspetti delle operazioni dei data center. Ciò non significa che i data center risolveranno i problemi legati ai consumi di energia, ma solo che fare previsioni in questo settore è dannatamente complesso.

Immagine: Dean Mouhtaropoulos | Getty

(rp)

Related Posts
Total
0
Share