L’avanguardia della tecnologia, con il successo della Generative AI, sta riportando indietro di un secolo l’orologio della rete elettrica, che si ritrova, all’improvviso, ai livelli di fragilità del XIX secolo.
Il boom dei data center legati alla diffusione dell’energivora intelligenza artificiale (AI) mette infatti a soqquadro le previsioni energetiche di interi Stati, facendo esplodere in maniera vertiginosa il fabbisogno energetico. Infatti ChatGPT e le AI generative richiedono enormi quantità di potenza di calcolo che impattano sul consumo di energia.
“Dal punto di vista mio e della Fondazione”, commenta Stefano Epifani, Presidente della Fondazione per la Sostenibilità Digitale, “non esistono tecnologie sostenibili od altre insostenibili ambientalmente, economicamente e socialmente. Esistono invece tecnologie più o meno energivore”.
Ecco come gli esperti rispondono alle sfide che l’intelligenza artificiale pone alla sostenibilità.
L’intelligenza artificiale fa esplodere il fabbisogno energetico: a causa dei data center
L’esplosione dei data center hyperscale negli Usa, in Stati come la Virginia settentrionale, ha sconquassato i piani delle aziende elettriche volti a ridurre l’uso dei combustibili fossili per abbracciare la sostenibilità.
Secondo studi recenti di ResearchGate, il consumo globale di elettricità dei data center è salito del 20-40% all’anno negli ultimi anni. Ha raggiunto l’1-1,3% della domanda globale di energia elettrica e contribuito all’1% delle emissioni di gas serra nel 2022.
In alcune aree, il boom di questi data center ha portato a bruciare carbone più a lungo del previsto. Quel carbone, a cui, secondo recenti accordi, il G7 dovrebbe dare l’addio entro il 2035.
Ma questi giganteschi ed energivori centri dati sono necessari nell’era dell’intelligenza artificiale. Infatti forniranno la potenza di calcolo necessaria per l’AI generativa.
Tuttavia, secondo un recente studio dell’Università del Massachusetts, l’addestramento di un singolo modello di intelligenza artificiale generativa può produrre emissioni di anidride carbonica equivalenti a cinque volte quella emessa da un’auto americana media durante il suo ciclo di vita, compreso il processo di produzione.
“Questi sono studi che danno i numeri, come a volte succede, con dati sottostimati o sovrastimati, perché dipende dal tipo di algoritmo, dal tipo di intelligenza artificiale”, mette in guardia Stefano Epifani: “Queste cifre non sono da prendere in considerazione, perché ci sono sistemi addestrati con impatti energetici molto più alti ed altri sistemi che non richiedono questo impatto energetico”.
“Acquisito che è indubbio che il costo, in termini di risorse di calcolo e dunque di impatto sull’ambiente dal punto di vista delle emissioni, è più che significativo e in aumento, il tema non è chiedersi se questo impatto sia sostenibile o meno, ma qual è l’obiettivo che dobbiamo porci. Il fatto che l’addestramento dell’AI produca CO2, non significa che non dobbiamo minimizzare l’impatto ambientale, utilizzare data center alimentati con energia green, anzi. Ma dati per scontati questi caveat, che però sembrano il dito quando uno guarda la luna”, avverte Epifani, “il tema è cosa si fa con l’intelligenza artificiale“.
Lo scenario Usa
Solo negli Usa, i data center stanno scatenando una battaglia contro le aziende elettriche che cercano di tenere accese le luci ed evitare i blackout, nonostante il boom di fabbisogno energetico.
In questa battaglia sono coinvolte le utilties, le aziende Big tech che vantano credenziali climatiche, i consumatori infuriati per l’aumento dei prezzi dell’elettricità e i regolatori che supervisionano gli investimenti nella rete elettrica e cercano di renderla green e sostenibile.
Il caso della Virginia, la regina mondiale dei data center
Nel Nord della Virginia, il terreno di scontro è la “Data Center Alley”. Circa il 70% del traffico internet globale passa attraverso i data center della zona, una ragnatela di linee elettriche che collegano centri dati alla rete elettrica attraversa i quartieri e i parchi. Ne stanno arrivando altri.
Amazon Web Services, il servizio di cloud computing, ha investito in Virginia 52 miliardi di dollari dal 2011 al 2021 e prevede di investire altri 35 miliardi di dollari entro il 2040.
La contea di Loudoun, in Virginia, sfiora i 37 milioni di metri quadrati di spazio per data center e altri 42 milioni di metri quadrati sono già opzionati.
Il titolo di regina mondiale dei data center conferito alla Virginia settentrionale risale a decenni fa, agli albori dell’era di internet, quando l’infrastruttura, costruita all’epoca, ha contribuito ad attirare i giganti delle Dot com e delle Tlc come AOL, Yahoo e WorldCom.
Allora sono stati installati chilometri di cavi in fibra ottica, che costituiscono la spina dorsale dell’infrastruttura dei data center dell’area.
I centri dati tendono a raggrupparsi in luoghi che vantano reti consolidate e accesso a un’abbondante fornitura di energia.
L’ascesa di ChatGPT e di modelli di intelligenza artificiale simili, che richiedono enormi quantità di potenza di calcolo, ha aumentato la domanda di data center. Molti dei nuovi data center in arrivo nella Virginia settentrionale appartengono alla categoria hyperscale, ovvero sono strutture molto più grandi delle precedenti generazioni di data center. I maggiori utilizzano una quantità di energia pari a quella della città di Seattle.
Le utility chiedono più energia fossile
Per molte aziende l’aumento della domanda di energia ha un’unica soluzione: mantenere le centrali a carbone aperte più a lungo, anche se lo stop al carbone è fissato al 2035, oltre ad aggiungere centrali a gas naturale per bilanciare.
A rappresentare plasticamente uno dei grandi successi della transizione energetica statunitense era stata la costante eliminazione del carbone. Per un decennio gli Usa avevano registrato l’addio a circa 10 gigawatt di energia a carbone ogni anno. Una cifra che invece calerà a circa 6 gigawatt all’anno fino al 2030, a causa dell’aumento della domanda di energia. Lo riporta S&P Global Commodity Insights.
Dominion Energy, che fornisce elettricità alla maggior parte dei data center della Virginia, prevede che l’utilizzo di energia elettrica quadruplicherà nei prossimi 15 anni, rappresentando il 40% della domanda nello Stato.
Le utility della Georgia e della Carolina del Nord stanno aggiungendo energia da combustibili fossili o stanno valutando di ritardare lo spegnimento di energia da combustibili fossili o di ritardare la chiusura degli impianti a carbone. Sempre per soddisfare la domanda dei centri dati e di altre industrie.
Duke Energy ha dichiarato alle autorità di regolamentazione di aver bisogno di tre nuove centrali a gas nelle Carolina. Altrimenti sarà costretta a mantenere aperte le centrali a carbone.
L’amministratore delegato di Dominion, Robert Blue, ha spiegato che l’azienda prevede un aumento del carico di picco di almeno il 5% ogni anno per i prossimi 15 anni.
Ciò non significa però che abdicherà alla transizione energetica. “Continueremo ad essere un grande costruttore di energie rinnovabili. Stiamo costruendo un grande parco eolico offshore oltre ad investire nell’energia solare. Stiamo aggiungendo stoccaggio”, ha detto Blue. “Ma dobbiamo ammettere anche che avremo bisogno di più gas naturale per tenere accese le luci (ed evitare i blackout, mentre aumenta la domanda energetica, ndr)”.
Le Big Tech puntano ad essere sostenibili
Il crescente fabbisogno energetico, dovuto al boom dei data center legati all’intelligenza artificiale, si scontra contro la necessità e l’ambizione delle Big tech di abbracciare la sostenibilità. Il connubio fra AI e sostenibilità dovrebbe essere possibile, ma ancora bisogna lavorare di gran lena per raggiungere il traguardo.
Le grandi aziende tecnologiche come Alphabet, Microsoft e Amazon sono tra i maggiori utilizzatori di data center. Nel frattempo, per essere green, si sono impegnate ad azzerare le emissioni a livello mondiale nei prossimi decenni.
Alcune Big tech si oppongono all’uso dei combustibili fossili. Microsoft ha criticato l’espansione del gas proposta da Georgia Power, sostenendo che i piani sottovalutano la capacità delle energie rinnovabili di soddisfare la domanda.
Le aziende tecnologiche hanno avvertito che le aziende di servizi pubblici potrebbero perdere clienti se bruciano più combustibili fossili, soprattutto carbone, ma anche gas. Georgia Power ha risposto che il suo portafoglio “protegge l’affidabilità, sostiene lo sviluppo economico e include le energie rinnovabili e le batterie di accumulo”.
“Nessun centro dati vuole essere legato alla necessità di nuove risorse fossili, questo è il problema”, ha affermato Brian Janous, ex vicepresidente del settore energia di Microsoft. “Ma non si può mettere a disposizione del sistema tutta questa capacità (di data center, ndr) senza avere un certo livello di risorse fossili a supporto”.
All’inizio di quest’anno, Janous ha contribuito al lancio di Cloverleaf Infrastructure, che sta aiutando i grandi consumatori di elettricità a trovare l’energia necessaria.
La risposta delle Big tech
Le grandi aziende tecnologiche vogliono più potenza di calcolo. Secondo le loro ultime relazioni trimestrali, Alphabet, la capofila di Google, Amazon e Microsoft, i colossi mondiali del cloud computing, hanno investito complessivamente 40 miliardi di dollari tra gennaio e marzo, soprattutto in centri dati per gestire i crescenti carichi di lavoro dell’intelligenza artificiale.
Meta, che non ha un’attività di cloud ma gestisce un impero di social media affamato di dati, ha dichiarato che la sua spesa in conto capitale potrebbe raggiungere i 40 miliardi di dollari quest’anno come risultato dei progetti legati all’ai. Una cifra non lontana dai 50 miliardi di dollari che Saudi Aramco, un colosso del petrolio, sta pianificando di spendere. Microsoft probabilmente spenderà di più.
Il confronto con l’industria energetica, notoriamente avida di investimenti, è azzeccato non solo per le somme in gioco. ai ha bisogno di grandi quantità di potenza di elaborazione. E questa potenza di elaborazione ha bisogno di grandi quantità di elettricità.
La banca JPMorgan Chase calcola che il braccio cloud di Amazon (aws), Alphabet e Meta e Microsoft abbiano consumato 90 terawattora (twh) di elettricità nel 2022, quanto la Colombia. E questo soprattutto prima che Chatgpt desse il via alla rivoluzione ai nel novembre dello stesso anno. Il clamore che ne è derivato ha portato l’Agenzia internazionale dell’energia (Iea), un’agenzia di previsione ufficiale, a prevedere che i data center (inclusi quelli dedicati all’AI e alle criptovalute, altrettanto avidi di energia) assorbiranno oltre 800 terawattora a livello globale nel 2026, più del doppio rispetto al 2022. La società di consulenza Bcg ritiene che l’elaborazione dei dati potrebbe triplicare la sua quota di consumo energetico americano entro il 2030, arrivando al 7,5%.
La corsa ai green data center
Ma non basta un’energia qualsiasi. I titani della tecnologia vogliono che l’energia sia pulita. Ad aprile la loro associazione industriale ha avvertito Georgia Power, che era riuscita ad accelerare l’approvazione di 1,4 gW di nuova generazione a combustibile fossile, indicando la crescente domanda di centri dati, che i suoi membri ne avrebbero costruiti di meno nello Stato meridionale americano se l’azienda avesse emesso ulteriori emissioni di carbonio. Insieme alla crescente domanda di trasporti, riscaldamento e parti dell’industria pesante sempre più elettrificati, il fabbisogno energetico della tecnologia digitale sta mettendo a dura prova le aziende che generano e distribuiscono elettricità.
Bloombergnef, una società di informazione, ritiene che gli investimenti annuali nella rete elettrica necessari per la completa decarbonizzazione dell’elettricità globale entro il 2050 dovranno passare da circa 300 miliardi di dollari nel 2022 a 600 miliardi di dollari nel 2030 e a ben oltre 800 miliardi di dollari nel 2050.
Le società di servizi avverse al rischio, che normalmente intraprenderebbero progetti di espansione della rete sotto l’occhio vigile di autorità di regolamentazione attente ai costi, non hanno né i soldi né la voglia di farlo.
I giganti dai grandi patrimoni sono già stati la forza maggiore dietro i “contratti di acquisto di energia”, che hanno contribuito a dare il via al boom delle energie rinnovabili in America, convincendo le aziende di servizi pubblici e altri investitori a costruire parchi eolici e solari. Ora stanno entrando più direttamente nell’azione per l’energia verde.
La proposta di Microsoft
Il primo maggio Microsoft e Brookfield, uno dei maggiori investitori mondiali in infrastrutture, hanno annunciato un accordo per la costruzione di 10,5 GW di capacità di energia rinnovabile in America e in Europa entro il 2030. L’accordo è destinato a consentire al gigante del software di rispettare l’impegno di utilizzare il 100% dell’elettricità, per il 100% del tempo, da fonti a zero emissioni di carbonio entro il 2030. Microsoft e Brookfield non hanno rivelato il prezzo, ma l’aggiunta di un gigawatt di capacità eolica o solare può costare circa 1 miliardo di dollari.
Un problema è che i data center tendono a consumare energia in modo costante, anche quando non c’è il sole o il vento.
Il progetto di Alphabet
Per questo motivo le aziende tecnologiche stanno pensando a come rendere più flessibile l’elaborazione dei dati. A marzo Sidewalk Infrastructure Partners, una società di infrastrutture e tecnologie co-creata da Alphabet, ha presentato un piano dettagliato per raggiungere questo obiettivo.
Si tratta di una combinazione di microgrid (che possono funzionare in modo indipendente ma anche scambiare energia con altre nelle vicinanze), batterie e software avanzati per consentire di spostare le attività meno sensibili al tempo, come l’addestramento dei modelli Ai, nei periodi in cui non c’è domanda.Jonathan Winer, uno dei fondatori di Sidewalk, prevede che questi centri dati sorgeranno prima in luoghi con problemi energetici come l’Arizona, la California e il Massachusetts.
L’opzione nucleare
Le rinnovabili non sono l’unico settore di interesse energetico delle Big tech. A marzo Aws ha pagato 650 milioni di dollari per un centro dati da 960 megawatt (mw) in Pennsylvania, alimentato da un reattore nucleare situato nelle vicinanze. Microsoft ha stretto un accordo con Constellation Energy, il più grande operatore nucleare americano, per la fornitura di energia nucleare per il suo centro dati in Virginia, come riserva quando l’energia eolica e solare non sono disponibili. Entrambe le aziende hanno anche esaminato i “piccoli reattori modulari”, una tecnologia nucleare promettente anche se non provata.
La geotermia
Google, invece, si sta dedicando all’energia geotermica. Il gigante della ricerca ha firmato il primo accordo aziendale per lo sviluppo di energia geotermica “potenziata” con Fervo, una startup che ha raccolto 430 milioni di dollari in capitale di rischio. Ispirandosi all’industria dello scisto, la startup ha sviluppato pozzi orizzontali, monitorati con cavi a fibre ottiche. Il suo sito in Nevada produce energia 24 ore su 24, senza emissioni di carbonio, per la rete locale, che Google poi acquista. Tim Latimer, capo di Fervo, afferma che ogni impianto di trivellazione gestito dalla sua azienda può aggiungere 100mw di energia. L’azienda sta sviluppando un impianto commerciale da 400mw nello Utah che inizierà ad alimentare la rete nel 2026. Il Dipartimento dell’Energia ritiene che innovazioni come quella di Fervo potrebbero espandere la produzione geotermica in America di circa 20 volte, fino a oltre 90 gw, entro il 2050.
Idrogeno pulito e fusione nucleare
Google e Microsoft hanno anche collaborato con Nucor, un gigante americano che gestisce mini-fabbriche di acciaio, che consumano molta elettricità. A marzo il trio ha annunciato che aggregherà la domanda e offrirà congiuntamente contratti a progetti di energia pulita, sia a quelli commerciali in fase iniziale che a quelli del tutto inediti “first-of-a-kind”. L’idea è quella di garantire la personalizzazione per gli sviluppatori di tecnologie promettenti come lo stoccaggio di energia a lunga durata, l’idrogeno pulito, la geotermia di nuova generazione e l’energia nucleare.
Sam Altman, il capo tecno-utopista di Openai, creatore di ChatGPT e principale partner di Microsoft nella creazione di modelli, punta ad alimentare la rivoluzione dell’intelligenza artificiale, investendo in Helion, una startup che si occupa di fusione nucleare, e in Exowatt, una startup che sviluppa moduli solari che possono fungere sia da generatori di elettricità che da batterie di accumulo termico.
Altman sta ora cercando di raccogliere 500 milioni di dollari per Oklo, che sta lavorando su microreattori nucleari che funzionano con il combustibile esaurito di quelli più grandi e che potrebbero alimentare fabbriche individuali, campus aziendali e, naturalmente, server farm di AI. Queste scommesse possono sembrare fantasiose. D’altra parte, 18 mesi fa lo era anche l’idea che un’ai potesse scrivere saggi o dipingere come un essere umano.
Le critiche dei consumatori contro i data center
Se da un lato i centri di elaborazione dati rappresentano una manna per le amministrazioni locali, in quanto forniscono posti di lavoro e un gettito fiscale affidabile, i residenti si lamentano delle imponenti strutture e delle linee elettriche che attraversano i loro quartieri.
Una recente proposta di Dominion, del valore di 54,3 milioni di dollari, prevede di estendere una linea di trasmissione di 1,8 miglia e di costruire una sottostazione per servire il campus previsto per il data center di Amazon. Il colosso dell’eCommerce e del cloud ha dichiarato, a sua volta, di aver attivato 19 parchi solari in Virginia e di essere il più grande acquirente di energia rinnovabile al mondo.
Ma parte della comunità ha definito ingiusti gli investimenti nella rete dei data center, pagati da tutti i clienti, anche consumer.
Dominion infatti deve anche costruire una centrale a gas naturale da 1.000 Megawatt, per soddisfare la domanda nei periodi di picco. Lo vuole fare nella contea di Chesterfield. In quest’area, l’anno scorso, è avvenuta la chiusura di un impianto a carbone. L’utility sta ancora rimuovendo milioni di metri cubi di ceneri di carbone dai bacini di stoccaggio del sito.
Gli abitanti del quartiere, abitato a maggioranza dalla comunità nera, è stato costretto a convivere con una centrale a combustibili fossili per quasi 80 anni. “Dovremmo sopportare i rischi per la salute e i rischi ambientali quando questa centrale, questa energia, non viene nemmeno utilizzata da noi”, ha detto Nicole Martin, presidente della sezione di Chesterfield del NAACP (National Association for the Advancement of Colored People).
Ma Dominion risponde alle critiche, affermando che l’impianto è di importanza cruciale per garantire l’affidabilità della rete. Gli investimenti nella rete, più i nuovi progetti, aumenterebbero le bollette medie dei clienti da circa 133 dollari al mese a 174 dollari in 15 anni, secondo le previsioni dell’azienda.
Secondo l’utility, però, le nuove linee di trasmissione spesso attraggono altri utenti. E i data center, inoltre, sostengono una parte maggiore del costo di tali aggiornamenti. Ma in effetti rimangono problematiche aperte.
Le rinnovabili e l’intelligenza artificiale sostenibile
L’eolico e l’energia solare al momento non sono in grado di soddisfare la domanda dei data center 24 ore su 24.
Quindi le utility richiedono l’integrazione con impianti di energia elettrica alimentata a gas naturale. Lo ricorda Arshad Mansoor, direttore generale dell’istituto no-profit Electric Power Research Institute.
“Si può essere idealisti”, ha detto Mansoor. “Ma se sei realista, all’energia solare, aggiungerai il gas”.
L’unica alternativa a nuovi impianti a gas è quella di ritardare il pensionamento degli impianti a carbone e nucleari.
Le proposte per rendere sostenibile l’intelligenza artificiale
L’AI richiede un’enorme quantità di energia. Nei prossimi anni potrebbe avverarsi uno scenario in cui dobbiamo aggiungere un Bangladesh al consumo energetico mondiale, secondo il New York Times.
Microsoft, da sola, sta aprendo un nuovo centro dati a livello globale ogni tre giorni. Secondo il Financial Times, le proiezioni federali stimano 20 nuove centrali elettriche a gas negli Stati Uniti entro il 2024-2025.
Negli USA è una nuova era d’oro per il gas naturale, tuttavia è evidente che usare più energia rinnovabile, per alimentare i data center, rappresenta la strada giusta.
Nel mondo c’è un’enorme domanda di nuova energia per gestire tutti i dati e i calcoli necessari all’AI generativa. Questo fabbisogno ha un costo, ma l’adozione dell’AI promette di aumentare la produttività delle imprese
Dobbiamo ottenere l’energia necessaria, e a un prezzo sostenibile. Al contempo dobbiamo evitare che la corsa all’intelligenza artificiale abbia un impatto sul riscaldamento globale.
“Penso che il caso più preoccupante sia da attribuire alle criptovalute”, spiega a un podcast del NyT Dario Amodei, biofisico delle reti neurali, EO e co-fondatore di Anthropic, “non credo che l’energia utilizzata per estrarre il prossimo Bitcoin sia puramente additiva. Prima non c’era e non riesco a pensare a nessuna cosa utile creata dalle crypto”.
“Diverso è il caso dell’AI che in futuro potrebbe contribuire a rendere più efficiente l’energia solare o forse aprire le porte alla fusione nucleare controllata o alla geo-ingegneria“, continua Amodei.
“Ma il modello comunque contribuisce all’automazione e a velocizzare tante attività ripetitive. L’AI consuma energia, ma fa risparmiare lavoro agli esseri umani. Se non ho più bisogno di andare in ufficio per svolgere quell’attività, essa diventa più sostenibile”.
La soluzione dunque consiste nel trovare svolte tecnologiche per consentire all’intelligenza artificiale di abbracciare la via della sostenibilità. Ecco come.
Servono nuovi chip per l’AI sostenibile
A suscitare grandi speranze è il lavoro di un gruppo internazionale di ricercatori. Lo coordina il Neuromorphic AI Lab (NUAI Lab) della UTSA (University of Texas at San Antonio). Ne fa parte anche Vincenzo Lomonaco.
Fra i massimi esperti italiani di Continual Learning, ricercatore presso il Dipartimento di Informatica dell’Università di Pisa e tra gli autori dell’articolo “Design principles for lifelong learning AI accelerators” (su Nature Electronics), Lomonaco e il suo grupppo puntano a creare nuovi microchip per rendere l’AI sostenibile.
I nuovi microprocessori dovrebbero riuscire a replicare i sistemi di apprendimento biologico. L’obiettivo è quello di rendere l’intelligenza artificiale più versatile, performante e sostenibile anche dal punto di vista ambientale.
Oggi i processi dell’AI consumano moltissima energia ed emettono ingenti quantità di CO2. Per risolvere questo problema, bisogna adottare l’Apprendimento Automatico Continuo (noto anche come Continual Learning o Lifelong Learning).
Esso consentirebbe all’AI l’assimilazione di un ingente numero di conoscenze in sequenza, senza scordare quelle acquisite in precedenza. Dunque senza dover ripartire da zero.
Ma ad ostacolare l’Apprendimento Automatico Continuo sono gli odierni paradigmi computazionali, insieme agli attuali vincoli infrastrutturali.
Con il NUAI Lab di San Antonio, i ricercatori hanno dato alla luce un nuovo sistema di apprendimento incrementale. Fondato sul co-design hardware-software ovvero sulla progettazione simultanea di componenti hardware e software, potrà generare un sistema di lifelong learning per l’AI. Un sistema solido e autonomo.
Servono algoritmi di nuova generazione. Ispirandosi al modus operandi dell’intelligenza umana, potranno consentire un passo avanti all’intelligenza artificiale. L’AI potrà così aumentare le proprie conoscenze in modo progressivo, più veloce ed efficace. L’obiettivo è quello di minimizzare i consumi ai livelli di una lampadina.
Conclusioni
L’AI può rivestire un ruolo rilevante nel favorire la sostenibilità ambientale, sociale ed economica. Ma solo se abbraccerà un approccio responsabile e olistico. Bisogna prendere in esame gli effetti a lungo termine delle tecnologie AI, contribuendo a mitigare gli effetti negativi.
Occorre uno sforzo collettivo da parte di governi, imprese, accademici e società civile per approdare all’AI sostenibile. Servono politiche e regolamenti oltre ad investimenti in ricerca e sviluppo di modelli AI sostenibili.
Tuttavia bisogna anche favorire una cultura basata su responsabilità e trasparenza nell’adozione di tecnologie AI.
“Ma tutto dipende da cosa facciano con l’intelligenza artificiale”, conclude Stefano Epifani: “Se per addestrare un computer a vincere una partita di Pong (caso concreto avvenuto), si spendono milioni di dollari di energia elettrica, e quel modello mi è servito solo a vincere solo una partita di Pong, abbiamo disboscato mezza foresta in maniera del tutto inutile. Ma, se quello stesso algoritmo consente di effettuare analisi predittive (di diagnosi precoce del tumore al seno eccetera), il conto energetico, oltreché ambientale e sociale dell’intelligenza artificiale, cambia, perché dobbiamo ragionare in termini di Life Cycle Assessment lungo l’intero ciclo di vita della tecnologia”.
“Non esistono dunque tecnologie intrinsecamente sostenibili o insostenibili ambientalmente”, sintetizza Stefano Epifani, “perché, in primo luogo, la sostenibilità ambientale è una funzione di bilanciamento con la sostenibilità economica e sociale; in secondo luogo, perché, in assoluto, non esistono tecnologie sostenibili o no, ma tecnologie energivore (o meno) dal punto di vista ambientale”.
L’AI sarà sostenibile se saprà orientare l’innovazione, generando un impatto positivo sul nostro pianeta e sulla società nel suo complesso.
Tuttavia soltanto impegno e visione condivisi permetteranno di forgiare un futuro dove l’intelligenza artificiale possa migliorare la nostra vita quotidiana, riuscendo a tutelare e salvaguardare il nostro ambiente.