Intelligenza Artificiale e Big Data sono due facce della stessa medaglia, pilastri dell’innovazione tecnologica.
Tuttavia, dietro i benefici tangibili offerti da queste tecnologie, emergono preoccupazioni relative alla loro sostenibilità energetica. La comprensione dei principi termodinamici e l’adozione del paradigma delle 5 “S” (safety, security, sustainability, standardization e space) sono fondamentali per valutare l’impatto complessivo dell’AI. Proviamo a capire come questi concetti possano guidare lo sviluppo di soluzioni tecnologiche più sostenibili ed efficienti, garantendo al contempo la sicurezza e la standardizzazione necessarie.
Il rapporto tra uomo e tecnologie: il pensiero di Viktor Mayer Schoenberger
Per avere una ricostruzione semplice ma chiara di quanto accada nel rapporto fra esseri umani e tecnologie, è utile ricorrere al pensiero di Viktor Mayer Schoenberger, docente a Oxford, così come rappresentato, in particolare in due suoi libri: “Big Data”, scritto con Kenneth Cukier nel 2013 e “Guardrails: guiding human decisions in the age of Ai”, scritto con Urs Gasser nel 2024. Il suo commento al tema tecnologico di attualità per eccellenza (e forse abusato da tempo e da molti) è che “Intelligenza artificiale è forse una locuzione sbagliata. Quello che stiamo vedendo in realtà è un machine learning guidato dai dati, un’automazione della statistica”.
L’IA e l’ignoranza dell’avvenire
Egli ritiene in sintesi che il sistema tecnologico che usa i dati non riconosca la causalità, ma solo le correlazioni. Risultati eccellenti possono essere ottenuti da tale sistema, ma solo sulla base di ciò che è avvenuto in passato. In altre parole, le previsioni che possono scaturire da tali sistemi tecnologici, non hanno un’idea dell’avvenire. Questa proprietà è invece tipica degli esseri umani, che da sempre, per loro natura, possono immaginare quello che non esiste e che si può realizzare, compresi i sistemi tecnologici AI-based stessi. In fondo, l’Intelligenza artificiale è la forma più recente di innovazione concepita dall’essere umano che riguarda l’accesso alla conoscenza di quello che esiste. Si spendono molti miliardi di dollari per questi sistemi tecnologici che producono sostanzialmente apprendimento in quantità ma non in qualità, fattore di gran lunga più rilevante e decisivo per il miglioramento delle condizioni di vita degli esseri umani. Naturalmente, come ogni sistema tecnologico, va considerata con attenzione la sua termodinamica. Vale a dire: i miliardi di dollari che vengono spesi, oltre al circoscritto valore aggiunto che sono capaci di offrire – vedi quanto già scritto sopra sull’aspetto quantitativo prevalente su quello qualitativo circa il miglioramento dell’accesso alla conoscenza – essi che costo hanno in termini di sostenibilità energetica?
La sostenibilità energetica dell’intelligenza artificiale
Il tema è affrontato in molti libri e articoli, più o meno di parte. È noto infatti, da tempo, che addestrare e utilizzare un sistema AI-based è assai energivoro e i progettisti e gli sviluppatori propongono strategie di mitigazione diverse rispetto a tale circostanza. Tuttavia, quello che non emerge in modo chiaro da tutta la letteratura del settore – e varrebbe la pena domandarsene la ragione – sono alcune considerazioni fisiche elementari che questo articolo intende richiamare. Sostanzialmente, il primo e il secondo principio della termodinamica, ricordando al lettore che sono quattro i principi della termodinamica, per completezza: ma in questa sede, vale la pena concentrarsi sui primi due, quelli più noti e di impiego pratico più comune, ovvero quello della conservazione dell’energia (nelle diverse forme in cui tale indefinibile entità si manifesta, come bene scrive Feynman) e quello della irreversibilità di molti eventi termodinamici.
Sotto tali profili, è evidente, in primo luogo, che un sistema tecnologico AI-based per funzionare ha bisogno di energia e in misura progressivamente crescente rispetto alla sua potenzialità in termini di informazione generata. In secondo luogo, migliorare l’informazione su un certo tema, significa pure ottenere un quadro conoscitivo meno disorganizzato e più ordinato. Questo trova una corrispondenza nel ben noto teorema di Shannon in teoria dell’informazione: informazione = – entropia (funzione di stato termodinamica che misura il grado di disordine di un dato sistema). In sintesi, i sistemi tecnologici AI-based richiedono tanta energia (prezzo da pagare) e questo è fisicamente spiegabile perché in qualche modo la trasformano (senza creare nuova energia o distruggerne), ma aumentando il livello dell’informazione aumentano il grado di ordinamento delle conoscenze su un dato tema, diminuendo corrispondentemente il suo livello entropico.
La sostenibilità legata alla termodinamica dell’Intelligenza artificiale
Sorge spontanea la questione della sostenibilità legata alla termodinamica dell’Intelligenza artificiale. Una buona analisi è stata condotta da Gianni Rusconi su una Guida de Il Sole 24 Ore dal titolo “Innovazione per l’ambiente”, pubblicata il 5 giugno 2024. Per esempio: quante emissioni di CO2 sono collegabili a una ricerca su ChatGpt?
Emissioni della GenAI: una “bomba climatica”
Un’analisi effettuata nel 2019 dall’Università del Massachussets stimava in proposito come la fase di addestramento di una Gen AI richiedesse circa 280 tonnellate di anidride carbonica, grosso modo cinque volte la carbon footprint di un’automobile nel suo intero ciclo di vita, produzione compresa. Si stima che allenare Gpt 3 abbia richiesto qualcosa come 936 MWh di energia, un quantitativo sufficiente per soddisfare il fabbisogno giornaliero di centomila famiglie europee, e abbia portato nell’atmosfera 550 milioni di tonnellate di CO2. La Danish Data Science Community ha prodotto uno scenario estremo e preoccupante riguardo Gpt 4 (la versione attualmente più evoluta di OpenAI): se tre miliardi di persone utilizzassero questo strumento ogni giorno per una trentina di ricerche, in 20 anni verrebbero generate più di un miliardo di tonnellate di sostanze nocive: una vera “bomba climatica”. Tutto ciò è ben noto e riguarda l’impiego massivo di corrente elettrica nelle sale macchine, alimentate in parte ancora con fonti fossili, dove l’AI generativa viene processata. Si potrebbe giungere al punto di rottura verso il 2040, quando l’energia richiesta per AI potrebbe essere superiore e di molto a quella che l’uomo sarà in grado di produrre in quel tempo.
Le possibili strade alternative
Si studiano strade alternative, quali la sostituzione delle tradizionali modalità di elaborazione con il calcolo neuromorfico, che evita i consumi energetici legati al recupero e archiviazione dei dati in rete eseguendo i corrispondenti e numerosissimi cicli in locale. Per contro, algoritmi di machine learning e applicazioni di Large language model (Llm) possono ottimizzare il lavoro dei sistemi di monitoraggio degli impianti di riscaldamento o abilitare più facilmente la manutenzione predittiva degli impianti stessi: in tal senso, sistemi tecnologici AI-based possono costituire fattori utili per ridurre la carbon footprint sull’ambiente.
È fuori discussione che l’impiego di sistemi tecnologici AI-based sia decisivo per garantire safety e security, in termini di miglioramento della risposta al rischio cui sono esposte infrastrutture critiche (quali porti, aeroporti, etc.), intervenendo sul potenziamento degli algoritmi sottostanti i corrispondenti scenari di preparedness. In termini ICT, ciò significa che gli algoritmi ci sono già (o almeno così ci si augura che sia) e i sistemi tecnologici AI-based agiscono come fattore di potenziamento della loro efficacia ed efficienza.
Il paradigma delle 5 “S”: safety, security, sustainability, standardization e space
Si potrebbe anche pensare che le tante correlazioni di cui sono capaci che nota Schoenberger possano arrivare a modificare in meglio gli algoritmi stessi se non addirittura a ispirarne qualcuno nuovo. Tutto questo però ha un prezzo in termini di sustainability, come sopra rappresentato. Un altro punto importante per l’efficacia e l’efficienza dei sistemi tecnologici AI-based è quello relativo alla loro standardization, ovvero all’adozione di linee guida condivise per facilitare il loro impiego da parte di una pluralità via via più estesa di bacini di utenza.
Tutto quanto fin qui scritto, fa riferimento al pianeta Terra e a tutte le attività che l’essere umano mette in atto sulla Terra. Non va però dimenticato che tutto quanto si svolga sulla Terra è in qualche modo monitorato e tracciato (posizione, percorsi, etc.) da reti satellitari (specie a bassa o media quota) nello spazio, oggi accessibili a costi contenuti. Tali reti satellitari sono elementi inscindibili, costitutivi di ogni operazione terrestre, in tempo di pace e in tempo di guerra. Dunque anche la dimensione spazio che tali reti ricomprende va inclusa in un unico paradigma capace di valutare in modo integrato una termodinamica “ragionevole” dei sistemi tecnologici AI-based.
Si potrebbe denominare tale paradigma come il paradigma delle 5 “S”: safety, security, standardization, sustainability e space.
Connclusioni
In conclusione, vogliamo più safety e più security e i sistemi tecnologici AI-based possono offrircele. Ma perché ciò diventi realtà occorre provvedere – e in tempo utile – a una valutazione consapevole della loro sustainability e della loro standardization, tenendo in conto la dimensione space quale elemento di loro pertinenza.