Tra le sfide più particolari che potrebbero interessare i prossimi anni degli anni 20 del XXI Secolo, quella della prevedibilità dei terremoti è sicuramente tra le più utili per l’intero pianeta.
Al momento, com’è risaputo, percepire con certezza l’arrivo di un sisma non è possibile; quantomeno, è possibile stimare, con un certo grado di indeterminatezza, che un determinato evento o una determinata conseguenza accada.
Ciononostante, tale “mantra” dell’impossibilità della previsione dei terremoti – giustificata anche da secoli di tentativi falliti e di affermazioni errate – potrebbe decadere o, perlomeno, essere messo in (seria) discussione nei mesi a venire.
Grazie all’intelligenza artificiale e ai big data.
L’IA per la previsione di alcuni tipi di terremoto
Il geofisico Paul Johnson ed il suo team del Los Alamos National Laboratory (USA) hanno sviluppato uno strumento che potrebbe rendere possibile la previsione di alcune tipologie di terremoti. Come molte indagini scientifiche condotte negli ultimi anni, l’approccio di Johnson e del suo team si basa sull’uso dell’intelligenza artificiale sotto forma di apprendimento automatico (Machine Learning).
Questo approccio, a sua volta, utilizza programmi per computer chiamati “reti neurali” che si basano su un modello semplificato del modo in cui si pensa che il sistema nervoso dell’uomo apprenda le cose. Un’applicazione di tale tecnologia, tuttavia, non esente da diverse difficoltà.
Le reti neurali hanno bisogno di grandi quantità di “dati di allenamento” (Training Data) per “insegnare loro” cosa cercare; e, questo, è qualcosa che i terremoti non forniscono “per tempo”. Con rare eccezioni, i grandi terremoti sono causati dal movimento delle faglie geologiche in corrispondenza o in prossimità dei confini tra le diverse placche tettoniche sparse sul nostro Pianeta. E la presenza di tali placche, quantomeno, ci dice “dove cercare” i dati che servono per l’allenamento delle reti neurali.
Ma il ciclo dei terremoti sulla maggior parte delle faglie comporta un processo – che dura decenni – chiamato “stick-slip”, ossia un movimento veloce che si verifica tra due lati di una faglia quando tali lati si “disincastrano” tra loro. All’inizio, c’è poco movimento su una faglia mentre la tensione si accumula e, in parole povere, ci sono ben pochi dati che si possono inserire in un programma di apprendimento automatico. Poi vi è uno slittamento improvviso e catastrofico che libera la tensione accumulata. Tale ultimo evento fornisce un grande quantitativo di dati, ma niente di particolarmente utile ai fini della previsione (poiché, ormai, il fatto è già avvenuto).
Il team di Los Alamos ritiene che ci sia bisogno di circa dieci cicli di dati sui terremoti per addestrare un sistema che possa predire dei sismi. Ed essendo la sismologia una “scienza giovane”, al momento ciò non è neanche lontanamente possibile.
I terremoti “silenziosi”
La famosa e pericolosa faglia di San Andreas in California, per esempio, genera un grande terremoto ogni quaranta anni circa. Ma, al momento, vi sono a disposizione appena venti anni – ossia, mezzo ciclo – di dati sufficientemente dettagliati per essere utili a fini predittivi. Un lustro addietro, tuttavia, il team di Johnson applicò l’apprendimento automatico a un diverso tipo di attività sismica, ossia gli eventi “slow-slip”, a volte chiamati anche “terremoti silenziosi”. Tali eventi sismici sono anch’essi causati dal movimento delle placche solo che, a differenza di un terremoto “classico” che – di solito – dura pochi secondi, un evento slow-slip può richiedere ore, giorni o addirittura mesi prima di concludersi. Dal punto di vista dell’apprendimento automatico questo tipo di terremoto “lento” è decisamente meglio, perché un processo così lungo genera tanti dati su cui poter addestrare la rete neurale.
Johnson ed il suo team hanno studiato la “zona di subduzione della Cascadia”, che si estende per circa mille chilometri lungo la costa del Nord America, dall’isola di Vancouver in Canada alla California settentrionale. Si tratta di una zona presente al confine tra le placche “Explorer”, “Juan de Fuca” e “Gorda” a ovest, e la placca nordamericana a est.
Il movimento costante di quest’ultima placca sulle prime tre genera un evento di slittamento lento che si verifica ogni quattordici mesi circa, con registrazioni e monitoraggi da parte dei geofisici attivi dai primi anni Novanta del secolo scorso. Ciò significa che ci vi sono svariati cicli completi di dati che permettono al sistema di apprendimento automatico del team di Los Alamos di prevedere cosa avviene nelle settimane successive, con un certo grado di certezza. Il prossimo test che dovrà essere eseguito verterà su una previsione effettiva di un evento sismico di “slittamento lento”. Il progetto slow-slip di Johnson e del suo team suggerisce che le tecniche di apprendimento automatico funzionano realmente in presenza di determinate tipologie di eventi sismici e potrebbero, quindi, essere estese per includere i terremoti “non slow”, se solo ci fosse un modo per compensare la mancanza di dati di cui sono affetti. Per fornire tale compensazione, il team di Los Alamos sta applicando un processo chiamato “apprendimento di trasferimento”. Il team del dottor Johnson ha creato una simulazione numerica, ossia un modello al computer che cattura gli elementi essenziali di un sistema fisico, di un terremoto creato in laboratorio (tramite modelli) e ha addestrato il suo sistema di apprendimento automatico su di esso, per vedere se può effettivamente imparare a prevedere il corso dei terremoti più imprevedibili. Il risultato è “moderatamente” riuscito. Ma ciò che fa davvero la differenza è il potenziamento del sistema addestrato con dati extra provenienti da esperimenti reali, ossia l’apprendimento di trasferimento. La combinazione di dati simulati, combinati con dati reali, è notevolmente più efficace nel prevedere quando si verificherà un terremoto in laboratorio.
I prossimi passi
Il prossimo passo verso la previsione dei terremoti sarà quello di applicare lo stesso approccio a una vera faglia geologica a partire, probabilmente, da San Andreas. Verrà approntato l’addestramento di un sistema di apprendimento automatico su una simulazione numerica della faglia, combinata con il già citato “mezzo ciclo” di dati (venti anni) ad oggi disponibili. Il team di Johnson potrà constatare se tale “mix” risulterà sufficiente ai fini della propria ricerca. Al momento, le aspirazioni del team si limitano a prevedere la tempistica di un terremoto imminente. Una previsione completa avrebbe anche bisogno di includere dove, lungo i milleduecento chilometri della faglia, potrebbe avvenire il sisma e con quale intensità. Il team spera di ottenere i primi risultati nei prossimi tre o sei mesi, ma avverte che potrebbe volerci più tempo.
Se questi risultati fossero davvero promettenti, però, ci sarà senza dubbio una corsa di altri team di ricerca di tutto il mondo che cercheranno di fare lo stesso, utilizzando i dati storici di altre faglie che producono terremoti al fine di convalidare la tecnica di Los Alamos. Questa “corsa” dei ricercatori di tutto il mondo, a sua volta, contribuirà a migliorare la ricerca a livello globale. Se tutto si risolverà in un nulla di fatto, tuttavia, nulla sarà perduto, perché il lavoro di Johnson e del suo team di ricercatori fornirà certamente una migliore comprensione della fisica dei grandi terremoti; e questo sarebbe già un risultato prezioso di per sé. Ma se non si rivelasse inutile e si tramutasse, invece, in un software in grado di prevedere quando avverranno i grandi terremoti, sarebbe davvero una scoperta straordinaria per l’umanità intera.[1]
Note
- Predicting earthquakes is not possible. Yet. The Economist. https://www.economist.com/science-and-technology/predicting-earthquakes-is-not-possible-yet/21807129 ↑