Da un approccio centrato su teoria e sperimentazione, a uno basato sul machine learning: la tecnologia sta rivoluzionando il metodo scientifico tradizionale con impatti significativi.
Il machine learning è l’addestramento di modelli algoritmici agnostici su dataset via via più corposi per l’individuazione dei pattern ricorrenti all’interno dei dati digitali.
Spesso, i modelli di machine learning forniscono un valido supporto per l’elaborazione delle teorie o per ottenere in maniera più semplice e veloce risultati comparabili a quelli delle simulazioni numeriche che richiedono anche infrastrutture HPC di alto livello.
Explainable AI: perché pretendere spiegazioni dall’Intelligenza Artificiale è giusto ma non basta
L’utilizzo di questi algoritmi raggiunge risultati sorprendenti in tantissimi ambiti di ricerca, dalle auto a guida autonoma, ai sistemi di assistenza linguistica, dalle applicazioni in ambito neuroscienze, ai modelli numerici dei sistemi complessi.
In precedenza, il ricercatore formulava una teoria a partire dall’osservazione della realtà e poi andava alla ricerca di set di dati che potessero confermare o confutare la sua ipotesi.
Adesso, nella realtà digitalizzata, produciamo una gran mole di dati che, anche non strutturati, non etichettati, non “puliti”, contengono conoscenza.
Una conoscenza che gli algoritmi di machine learning sono in grado di estrarre e di rendere evidente, aiutando in modo sostanziale la realizzazione di modelli riproducibili.
Si dovrà sempre più abbandonare l’obiettivo di costruire teorie estremamente eleganti e occorrerà abbracciare in toto la complessità e fare uso del migliore alleato che è possibile ottenere ai nostri tempi: l’irragionevole efficacia dei dati[1].
Di seguito, un caso studio dalla nostra esperienza come gruppo di ricerca ENEA specializzato sulle applicazioni di high performance computing e intelligenza artificiale.
L’importanza dell’analisi dei dati nella contemporaneità
Ogni attività umana, dalla corsetta mattutina all’acquisto di un articolo di consumo, dalla fotoricordo alla condivisione di un video, è una nuova sorgente di dati digitali: la nostra società è diventata una società algoritmica, governata da codici eseguiti e disegnati a partire dai dati.
Un cambiamento esponenziale: lo scorso anno, le sorgenti dati legate ai sensori sono più di 20 volte la popolazione mondiale. Nella categoria rientrano quindi non solo le attività “puramente” umane, realizzate in maniera conscia, ma anche i sistemi di monitoraggio e raccolta dati automatici.
La dura esperienza della guerra in Ucraina ci sta insegnando come le sfide e le vittorie si conquistano anche nel cyberspazio: avere la capacità di controllare e gestire – diremmo anche proteggere – grosse moli di dati è un elemento fondamentale nella strategia di potere.
Parafrasando il premio Pulitzer Daniel Yergin e il suo libro “The prize”, la dipendenza dai dati, sempre più intrecciati alle attività quotidiane, è tale che abbiamo notevoli difficoltà a pensare alla loro pervasività nella nostra vita.
I dati contengono un profondo valore di cui a volte non siamo completamente coscienti, che racconta una parte consistente del nostro quotidiano.
I dati sono dunque il nuovo petrolio che alimenta la nostra società e, se opportunamente trattati con algoritmi di intelligenza artificiale, possiamo ricavarne un enorme valore per un cambiamento radicale nell’approccio alle scienze.
Machine learning e metodo scientifico: l’ipotesi del caso studio
L’importanza dell’analisi dei dati nella contemporaneità
Ogni attività umana, dalla corsetta mattutina all’acquisto di un articolo di consumo, dalla fotoricordo alla condivisione di un video, è una nuova sorgente di dati digitali: la nostra società è diventata una società algoritmica, governata da codici eseguiti e disegnati a partire dai dati.
Un cambiamento esponenziale: lo scorso anno, le sorgenti dati legate ai sensori sono più di 20 volte la popolazione mondiale. Nella categoria rientrano quindi non solo le attività “puramente” umane, realizzate in maniera conscia, ma anche i sistemi di monitoraggio e raccolta dati automatici.
La dura esperienza della guerra in Ucraina ci sta insegnando come le sfide e le vittorie si conquistano anche nel cyberspazio: avere la capacità di controllare e gestire – diremmo anche proteggere – grosse moli di dati è un elemento fondamentale nella strategia di potere.
Parafrasando il premio Pulitzer Daniel Yergin e il suo libro “The prize”, la dipendenza dai dati, sempre più intrecciati alle attività quotidiane, è tale che abbiamo notevoli difficoltà a pensare alla loro pervasività nella nostra vita.
I dati contengono un profondo valore di cui a volte non siamo completamente coscienti, che racconta una parte consistente del nostro quotidiano.
I dati sono dunque il nuovo petrolio che alimenta la nostra società e, se opportunamente trattati con algoritmi di intelligenza artificiale, possiamo ricavarne un enorme valore per un cambiamento radicale nell’approccio alle scienze.
Le concentrazioni di alcuni inquinanti atmosferici a livello nazionale vengono analizzate e suddivise in base ad una risoluzione reticolare.
Le stazioni meteorologiche raccolgono le informazioni sulla concentrazione degli agenti inquinanti con una distanza di 20km.
Il modello fisico numerico del Laboratorio di Inquinamento Atmosferico (Centro di Ricerche ENEA a Bologna) riesce a generare un’informazione distanziata di 4km.
Questo aumento della risoluzione dalle concentrazioni di agenti inquinanti, da un reticolo di 20km a 4km, è replicabile attraverso l’utilizzo delle reti neurali?
Una risposta affermativa consentirebbe di ottenere un risultato analogo a quello generato dal modello fisico numerico, con tempi di elaborazione notevolmente minori.
Ci si potrebbe quindi spingere fino alla risoluzione di 1km, distanza non perseguibile con gli strumenti attuali.
Nel machine learning, l’aumento della densità dei pixel causa un aumento di risoluzione dell’immagine: a partire da una figura a bassa risoluzione vengono aggiunte delle informazioni per ottenere un’immagine in hd con più dettagli.
Allo stesso modo, attraverso tecniche di apprendimento profondo non supervisionato, è possibile aggiungere delle informazioni al file con minor dettaglio di concentrazione di agenti inquinanti, per crearne uno più minuzioso.
Machine learning e metodo scientifico: come funziona il training
I file climatologici di tipo NetCDF, forniti dal Laboratorio di Inquinamento Atmosferico[2] e raccolti da inizio 2019 a fine 2021, contengono le concentrazioni di circa 50 agenti inquinanti: dal particolato (PM10), all’ozono, all’anidride carbonica.
Nel dataset sono presenti due tipologie: dati a bassa e ad alta risoluzione, entrambe fondamentali per il training della rete neurale.
Infatti, l’immagine a bassa risoluzione è l’input che viene lavorato dall’algoritmo, mentre il dato ad alta risoluzione è utile per il confronto con l’immagine-output rilasciata dalla rete.
Il confronto è finalizzato a rendere il dato di uscita dalla rete sempre più somigliante a quello ad alta risoluzione: per somiglianza si intende la funzione costo, che misura la distanza tra il risultato atteso e quello ottenuto, minimizzata durante il processo di training.
Se l’algoritmo si adatta troppo al dataset di training e non si riescono a ottenere buoni risultati su dati nuovi si parla di overfitting.
Per questo motivo, di solito, una porzione del dataset non viene utilizzata direttamente nella fase di addestramento della rete neurale, ma verificata a intervalli regolari nella fase di validazione, per controllare le capacità di generalizzazione della rete.
Inoltre, per consolidare la validità del modello appena addestrato, si effettua una fase di test su una parte del dataset (che nel nostro caso sono tutti i file dell’anno 2021).
Per finalizzare il task, i parametri della rete neurale non sono stati inizializzati in maniera casuale ma attraverso il transfer learning: l’utilizzo di una configurazione di valori di una rete neurale già allenata per l’aumento di risoluzione su un dataset di immagini reali.
Poiché le caratteristiche estratte dalla rete su un insieme di immagini qualsiasi sono universali, è stato adattato quanto imparato dalla rete al dataset considerato, in modo da fornire come output l’immagine ad alta risoluzione a partire da quella a bassa risoluzione.
Machine learning e metodo scientifico: i due modelli a confronto
A titolo d’esempio, sono forniti i risultati relativi alla concentrazione di monossido di carbonio (CO), che dal punto di vista chimico-fisico non agisce con gli altri inquinanti e quindi è influenzato poco dal loro comportamento.
Nell’immagine a sinistra è riportato il valore a bassa risoluzione inserito in input alla rete neurale.
Nelle figure di destra viene evidenziato il dato ad alta risoluzione generato dal modello fisico-numerico (in alto) e in output dalla rete neurale (in basso).
Come si può notare, le immagini della colonna di destra sembrano identiche, benché siano state prodotte in maniera totalmente diversa.
Conclusioni
Nell’applicazione riportata, è stato messo in luce un punto focale del cambio di paradigma in corso nella produzione di risultati scientifici.
Da una parte, un modello numerico, basato sull’approssimazione di soluzioni di sistemi di equazioni alle derivate parziali, quindi un elegante modello fisico-matematico.
Dall’altra, l’ottenimento di buoni risultati attraverso l’emulazione della soluzione del modello numerico attraverso tecniche di machine learning, che modellano i risultati a partire dai dati forniti dall’utente.
Un approccio basato sui dati deve essere dotato della giusta dose di iniezione di conoscenza proveniente dall’architettura sufficientemente complessa dell’algoritmo e/o dall’inserimento di strumenti di analisi di immagini provenienti da un dominio diverso.
A queste condizioni, consente di ottenere in tempi rapidi risultati che un modello numerico, che ingloba i fenomeni chimico-fisici sottostanti, potrebbe ricavare dopo alcune ore di elaborazione.
________________________________________________________________________________
Note
- Halevy I., Norvig P., Pereira F., “The Unreasonable Effectiveness of Data”, IEEE Computer Science, 2019, disponibile su https://static.googleusercontent.com/media/research.google.com/it//pubs/archive/35179.pdf↑
- Per i dati forniti si ringrazia il dott. Adani del Laboratorio di Inquinamento Atmosferico del Centro di Ricerca Enea di Bologna. ↑