L’intelligenza artificiale è decisamente energivora e si teme per l’impatto che i suoi sviluppi avranno sull’ambiente. E’ pur vero, tuttavia, che – grazie all’evoluzione della tecnologia – l’IA potrà essere al servizio del contrasto ai cambiamenti climatici. Serve però una presa d’atto del problema ambientale, senza la quale è difficile che si verifichino sensibili miglioramenti.
Gli effetti dell’ICT sull’ambiente
Gli effetti dell’ICT sull’ambiente sono spesso classificati come di primo secondo o terzo ordine.
I primi sono gli effetti diretti che l’ICT ha sull’ambiente in termini di consumo di materie prime, produzione di rifiuti elettronici e consumi energetici, e sono negativi per l’ambiente.
Gli effetti del secondo ordine sono quelli indiretti, ovvero relativi all’influenza – che in genere dovrebbe essere positiva – che un servizio o applicazione ICT operante in un qualunque settore ha sull’ambiente.
Un esempio di effetto del secondo ordine è quello per cui la videoconferenza sostituisce i viaggi dei partecipanti. I viaggi, specialmente in aereo e spesso su lunghe distanze, producono quantità rilevanti di GHG (Greenhouse Gases, gas a effetto serra). La videoconferenza non è stata concepita specificamente per diminuire l’impatto ambientale – piuttosto invece per far risparmiare tempo e denaro ai partecipanti – ma il suo utilizzo consente di eliminare attività ad alto impatto GHG.
Molto si è parlato nel decennio precedente di tali potenziali effetti positivi; alla resa dei conti però i vantaggi ambientali – espressi con riduzione delle emissioni di GHG – sono stati inferiori alle aspettative.
Gli effetti del terzo ordine invece sono effetti sistemici (e spesso imprevisti) che l’ICT produce. Possono essere positivi o negativi, ma di solito sono negativi sull’ambiente. Gli effetti del terzo ordine sono collegati ai cambiamenti sociali che l’ICT porta con sé. Essi includono le conseguenze impreviste che potrebbero annullare i potenziali benefici dell’ICT in termini di sostenibilità ambientale, detti rebound effect o effetti di rimbalzo. Il termine “effetto rimbalzo” ha origine in energy economics e descrive la risposta sistematica a una misura, adottata per ridurre l’impatto ambientale, che compensa l’effetto di tale misura. I rebound effect sono generalmente focalizzati sul consumo di energia, ma la teoria relativa può essere generalizzata a qualsiasi risorsa naturale o esternalità che si inserisce nel consumo finale – gli effetti dell’ICT sull’ambiente possono essere considerati come esternalità (negativa o positiva).
Per quanto riguarda la portata dei rebound effect, gli analisti distinguono fra un effetto debole (le misure di efficienza non sono efficaci come previsto), un effetto forte (la maggior parte dei risparmi previsti non si materializzano) e un effetto di ritorno (la misura dell’efficienza porta ad un aumento della domanda). Spesso a proposito di rebound effect si parla del paradosso di Jevons che, in teoria economica, si riferisce a una situazione in cui una maggiore efficienza si traduce comunque in una maggiore domanda complessiva. Ad esempio, i veicoli autonomi potrebbero indurre le persone a guidare molto di più, in modo che le emissioni complessive di GHG aumentino invece di diminuire. In tali casi, diventa particolarmente importante ricorrere a politiche specifiche, come la tariffazione del carbonio, per orientare le nuove tecnologie; l’IA può essere determinante a questo scopo.
Danni dell’IA sull’ambiente
In un precedente articolo abbiamo parlato anche di attività ICT ad altissima valenza tecnologico-innovativa ma con forti effetti del primo ordine: le criptovalute e gli algoritmi di deep learning.
L’IA – nelle sue varie declinazioni e in particolare proprio il deep learning – merita certamente un’attenzione particolare anche in relazione ai tre ordini di effetto sull’ambiente che abbiamo introdotto.
Sugli effetti diretti (o del primo tipo) molto è stato scritto. Nel rapporto “Is Ai the next big climate-change threat? We havent’ a clue”, gli autori sostengono che l’IA è la prossima grande minaccia al cambiamento climatico. Gary Dickerson, amministratore delegato di Applied Materials – un grosso fornitore dell’industria dei semiconduttori – ha avvertito che in assenza di una significativa innovazione nei materiali, nella produzione e nella progettazione di chip, i carichi di lavoro di intelligenza artificiale dei data center potrebbero rappresentare un decimo dell’utilizzo mondiale di elettricità entro il 2025. Oggi, milioni di data center in tutto il mondo assorbono poco meno del 2%, e questa statistica comprende tutti i tipi di carichi di lavoro gestiti sui loro vasti array di server. Applied Materials stima che i server che eseguono AI attualmente rappresentino solo lo 0,1% del consumo globale di elettricità.
Anche altri dirigenti del settore tecnologico stanno mettendo in guardia, come Anders Andrae di Huawei secondo cui i data center potrebbero finire per consumare un decimo dell’elettricità del globo entro il 2025, anche se la sua stima copre tutti i loro usi, non solo l’IA.
Jonathan Koomey, consigliere senior del Rocky Mountain Institute, invece è più ottimista: si aspetta che il consumo di energia del data center rimanga relativamente piatto nei prossimi anni, nonostante un picco nelle attività legate all’intelligenza artificiale.
Previsioni ampiamente divergenti, che evidenziano una carenza di metodologie assestate e condivise per quantificare l’impatto dell’ICT e in particolare l’impatto dell’IA sul futuro dell’informatica su larga scala e dunque le sue implicazioni finali sulla domanda di energia.
L’Intelligenza Artificiale ha sicuramente molto appetito di energia. La formazione e la gestione di modelli di apprendimento profondo comportano l’elaborazione di grandi quantità di dati, che caricano memoria e processori. Uno studio del gruppo di ricerca OpenAI afferma che la quantità di potenza di calcolo necessaria per guidare grandi modelli di intelligenza artificiale sta già raddoppiando ogni tre mesi e mezzo.
La previsione di Applied Materials è, per sua stessa ammissione, nello scenario peggiore progettato per evidenziare cosa potrebbe accadere in assenza di nuove riflessioni su hardware e software. Sundeep Bajikar – responsabile della strategia aziendale e delle informazioni di mercato dell’azienda – afferma che si suppone che nel tempo ci sarà uno spostamento nel mix di informazioni utilizzate per addestrare i modelli di intelligenza artificiale verso video e immagini, che rappresentano una percentuale crescente del totale rispetto a informazioni di testo e audio. I dati visivi sono più intensivi dal punto di vista computazionale e quindi richiedono più energia per essere elaborate.
Bajikar afferma che questa e altre tendenze sottolineano l’urgente necessità di ciò che la sua azienda chiama “un nuovo playbook” di materiali e produzione per l’era dell’IA.
Un team di ricercatori dell’Università del Massachusetts, Amherst, nello studio “Energy and Policy Consideration for Deep Learning in NLP” e ripreso sul MIT Technology Review (“Training a single AI model can emit as much carbon as five cars in their lifetimes”) evidenzia come l’energia necessaria per l’addestramento di modelli di elaborazione del linguaggio naturale (Natural- Language Processing – NLP) possa produrre quasi cinque volte le emissioni della intera vita dell’auto di un americano medio.
Alcuni importanti sviluppi potrebbero limitare il consumo energetico dell’IA. Uno di questi sono i data center “hyperscale”, introdotti da società come Facebook e Amazon, che utilizzano vasti array di server di base specifici per determinate attività. Le macchine sono più efficienti dal punto di vista energetico rispetto ai server dei centri convenzionali, che devono destreggiarsi tra una gamma più ampia di funzioni. E poi ci sono i nuovi tipi di microchip. Le previsioni sui materiali applicati presuppongono che i carichi di lavoro di intelligenza artificiale continueranno a essere eseguiti su hardware esistente la cui efficienza migliorerà gradualmente nei prossimi anni. Una miriade di startup, così come grandi aziende come Intel e AMD, stanno invece sviluppando semiconduttori che sfruttano tecnologie come la fotonica per alimentare reti neurali e altri strumenti di intelligenza artificiale utilizzando molta meno energia.
Il controllo sul consumo di energia dell’IA potrebbe effettivamente essere l’IA stessa. Google sta già utilizzando la tecnologia sviluppata da DeepMind, una società acquisita nel 2014, per raffreddare i suoi data center in modo più efficiente. L’intelligenza artificiale aveva già aiutato l’azienda a ridurre del 40% la sua bolletta di raffreddamento formulando raccomandazioni agli operatori umani; ora gestisce efficacemente i sistemi di raffreddamento nei centri da sola.
L’intelligenza artificiale verrà utilizzata anche per ottimizzare altri aspetti delle operazioni dei data center. E, come la vittoria sul raffreddamento di Google, ciò andrà a beneficio di tutti i tipi di carichi di lavoro. Ciò non significa che i data center non finiranno per richiedere molta più potenza a causa della crescente domanda di prodigi dell’IA, ma è uno dei vari altri motivi per cui fare previsioni nel settore dell’IA è così difficile.
Vantaggi dell’IA per l’ambiente
Rivolgiamo ora l’attenzione agli effetti di secondo ordine dell’IA sull’ambiente.
In particolare vediamo più precisamente come l’IA possa essere al servizio del contrasto ai cambiamenti climatici. Una review complessiva, aggiornata e articolata è il Report “Tackling Climate Change with Machine Learning” dove un imponente gruppo di ricercatori di 16 istituzioni – che va dal MIT alla Carnegie Mellon University, dall’ETH Zurich fino a Google AI- descrive come e in quali ambiti il machine learning può contribuire ad affrontare i problemi del cambiamento climatico.
Gli estensori del rapporto premettono che il cambiamento climatico è una delle maggiori sfide per l’umanità e per questo, in quanto esperti di apprendimento automatico, si chiedono che contributo possano dare. Descrivono come l’apprendimento automatico può essere uno strumento potente per ridurre le emissioni di gas a effetto serra e aiutare la società ad adattarsi a un clima in evoluzione. Dalle reti intelligenti alla gestione delle catastrofi, identificano i problemi ad alto impatto in cui le lacune esistenti possono essere colmate dal ML, in collaborazione con altri settori. Le raccomandazioni comprendono interessanti quesiti di ricerca, così come opportunità commerciali promettenti. Chiedono esplicitamente alla community di IA di aderire allo sforzo globale contro i cambiamenti climatici.
Il report – molto esteso – si articola in 60 pagine (più 30 di riferimenti bibliografici estesi ed aggiornati) esaminando a tutto tondo i settori e le applicazioni in cui nuove soluzioni di IA, basate anche su algoritmi di machine learning, possono contribuire ad affrontare le sfide climatiche. Le tecnologie IA utilizzabili nei vari domini spaziano dalla visione artificiale all’elaborazione del linguaggio naturale, dall’inferenza causale alla quantificazione dell’incertezza, dall’apprendimento non supervisionato al ML interoperabile.
Il documento è suddiviso in due macro sezioni, una relativa alla mitigazione dei cambiamenti climatici e l’altro all’adattamento a tali cambiamenti. I settori di intervento per mitigare l’effetto dei GHG sono: il settore elettrico, i trasporti, gli edifici e le città, l’industria, le fattorie e le foreste, carbon dioxide removal. Le proposte e le idee per utilizzare l’Intelligenza Artificiale in questi settori si dettagliano in vari modi e spaziano dalle smart grid elettriche agli edifici intelligenti.
Ad esempio nel settore elettrico il ML può contribuire su tutti i fronti: dalla ricerca, all’implementazione e al funzionamento del sistema elettrico. Tali contributi comprendono l’accelerazione dello sviluppo di tecnologie per l’energia pulita, il miglioramento delle previsioni della domanda di energia e di produzione di energia da fonti rinnovabili, l’ottimizzazione e la gestione del sistema e il miglioramento del monitoraggio del sistema. Queste soluzioni richiedono una varietà di paradigmi e tecniche ML, ma soprattutto richiedono la garanzia di lavorare a stretto contatto con esperti di dominio per integrare approfondimenti di ricerca operativa, ingegneria elettrica, fisica, chimica, scienze sociali e altri campi.
Per quanto riguarda invece l’adattamento ai cambiamenti climatici i settori indicati sono: le previsioni di cambiamenti climatici, gli impatti sociali connessi all’adattamento, il solar geoengineering e la definizione di vari meta-tool di quantificazione.
Il report è articolato ed interessante. I suggerimenti per le linee di ricerca sono molti vari e dettagliati e originali. Speriamo che da libro dei sogni e delle buone intenzioni diventi realtà – e lo diventi molto presto.
Un discorso approfondito ulteriore è quello del contributo potenziale dell’IA rispetto agli effetti sistemici, per evitare che si verifichino rebound effect. Concetti sociologici come il nuovo istituzionalismo e le unintended consequences possono essere utili per un approccio alternativo, dove gli effetti di rimbalzo possono essere affrontati ed evitati concentrandosi su modelli comportamentali rilevanti per la sostenibilità. Che cosa se non proprio l’IA ci può aiutare?
Conclusioni
Senza una presa d’atto del problema ambientale, senza l’acquisizione della consapevolezza della necessità di affrontare in modo sistematico e scientifico il complesso intreccio di ICT e ambiente, ma soprattutto senza un preciso impegno ambientale da parte di tutti i soggetti coinvolti – dai produttori di hardware ai gestori di servizi in cloud fino agli utenti finali – è difficile che si verifichino sensibili miglioramenti.
Per usare un’espressione forse un po’ abusata ma sempre calzante è necessario che nel rapporto ICT e ambiente ci sia un netto cambio di paradigma: l’impatto sull’ambiente dell’ICT in ogni sua manifestazione deve essere conosciuto e valutato quantitativamente con metriche condivise al fine di ridurlo al massimo. E deve diventare un criterio centrale nella valutazione del rapporto costi benefici.
Gli autori del citato articolo “Energy and Policy Consideration for Deep Learning in NLP” suggeriscono un cloud finanziato dal governo come soluzione al problema: “È più conveniente per i ricercatori accademici, che spesso lavorano per istituzioni educative senza scopo di lucro e la cui ricerca è finanziata da entità governative, mettere in comune risorse per costruire centri informatici condivisi a livello di agenzie di finanziamento, come la US National Science Foundation. Un cloud di calcolo accademico finanziato dal governo fornirebbe un accesso equo a tutti i ricercatori”.
Raccomandano inoltre uno “sforzo congiunto dell’industria e del mondo accademico per promuovere la ricerca di algoritmi più efficienti dal punto di vista computazionale, nonché hardware che richiede meno energia“, al fine di ridurre l’impronta di carbonio del deep learning.
I risultati sottolineano anche un altro problema crescente nell’IA: la intensità delle risorse ora necessarie per produrre risultati meritevoli di pubblicazione scientifica ha reso sempre più difficile per coloro che lavorano nel mondo accademico continuare a contribuire alla ricerca.
“Questa tendenza verso la formazione di modelli operanti su grandi mole di dati non è sostenibile sul lungo periodo per gli accademici, specialmente per gli studenti laureati, perché non disponiamo delle risorse di calcolo”, afferma Strubell, uno degli autori. “Quindi esiste un problema di accesso equo tra ricercatori del mondo accademico e ricercatori del settore”.
Strubell e i suoi coautori sperano che i loro colleghi prestino attenzione alle questione evidenziate nell’articolo e aiutino a “livellare il campo da gioco” investendo nello sviluppo di hardware e algoritmi più efficienti.
I cervelli umani possono fare cose incredibili con un basso consumo di energia. La domanda più grande è come possiamo costruire delle macchine intelligenti che abbiano anche questa caratteristica.