Qualche giorno fa, il Consiglio europeo ha finalmente adottato un regolamento che conferma il cammino di EuroHPC e apre a strada allo sviluppo in Europa della prossima generazione di supercomputer. Il regolamento prevede di mettere in comune le risorse dell’UE, dei 27 Stati membri, di altri 6 Paesi associati e di due associazioni private, la European Technology Platform for HPC and la Big Data Value Association.
Quest’ultima, nata per essere il braccio privato nelle PPP (Public-Private Partnership) europee, ha recentemente ridefinito la propria missione in modo da orientarla più chiaramente verso le applicazioni dell’intelligenza artificiale a grandi volumi di dati.
Perché per raggiungere l’obiettivo del supercomputing sovrano, non bastano soli i supercomputer, ma ci vuole molto di più.
Calcolo ad alte prestazioni, strumento strategico per la competitività italiana
L’idea dietro l’impresa comune EuroHPC
L’impresa comune EuroHPC con sede in Lussemburgo è stata creata nell’ottobre 2018, con l’intento di “sviluppare, implementare, estendere e mantenere nell’UE un ecosistema federato, sicuro e iperconnesso di supercalcolo e di calcolo quantistico”, nonché di servizi e infrastrutture di dati a livello mondiale.
Nei suoi due anni di esistenza, EuroHPC ha aggiudicato contratti per cinque supercomputer “medi” (per un valore compreso tra 12 e 30 milioni di euro) e due “grandi” rispettivamente in Italia (120 milioni di euro) e in Finlandia (144 milioni di euro).
L’idea è che l’adozione della tecnologia di supercalcolo in Europa avvenga attraverso progetti, che richiedono – in cambio di co-finanziamenti – la creazione di vera proprietà intellettuale europea e non solo l’acquisto di apparati e servizi (magari in cloud) da fornitori extra-europei.
L’alternativa “anti-sovranista” a un programma di ricerca e sviluppo sul supercalcolo è semplicemente l’acquisto di piattaforme da terzi. I fornitori extra-europei di supercalcolo non mancano, e l’UE potrebbe forse procurarsi una piattaforma HPC avanzata a costi inferiori, offrendo comunque all’industria europea uno strumento potente per applicare l’intelligenza artificiale nelle aree dove è già forte: dallo sviluppo dei farmaci all’industria meccanica. Si tratta di una prospettiva concreta e difesa da interessi legittimi: l’ottavo e il più costoso dei supercomputer HPC la piattaforma “MareNostrum 5” di Barcellona è stata a lungo sospesa per la difficoltà di decidere tra le offerte concorrenti del consorzio statunitense-cinese IBM-Lenovo e quella del “campione europeo”, la francese Atos. Un’impasse che ha richiesto addirittura contatti a livello dei Capi di Stato e di Governo. Lenovo sta già contestando la decisione dell’ottobre 2020 di aggiudicare il contratto del supercomputer italiano ad Atos (nell’ambito dello stesso programma di gara EuroHPC).
La dottrina europea della sovranità digitale
La dottrina della sovranità digitale si riferisce alla capacità di un Paese, o di una comunità di Stati, di decidere il proprio destino digitale, stabilendo quali dati creare, le loro modalità di trattamento, e la protezione in fase di elaborazione e di archiviazione, sia su apparati propri sia durante il ricorso a servizi esterni su cloud.
Da qualche anno, la dottrina della sovranità digitale è stata estesa anche alle piattaforme: per essere sovrana, una comunità deve “controllare” – ovvero, aver progettato e realizzato – anche la propria rete di comunicazione (ad esempio il 5G) e la piattaforma di super-calcolo, ovvero l’hardware e il software che usa per elaborare e trasmettere i dati. Secondo alcuni, si tratta di un’estensione assolutamente necessaria vista la complessità dei sistemi tecnologici di oggi: se la struttura degli apparati tramite cui esercito la sovranità digitale mi è ignota e la loro gestione resta sotto il controllo di chi me li ha forniti, la sovranità stessa può essere compromessa. Secondo altri, estendendo troppo la dottrina della sovranità digitale senza avere adeguate capacità di innovazione tecnologica si rischia di ricadere in un’autarchia tecnologica che può danneggiare la competitività dell’intero ecosistema.
L’Unione Europea ha imboccato da tempo la strada di una sovranità digitale a due livelli, in cui il Consiglio eropeo definisce (in accordo con la Commissione, che mette le risorse di co-finanziamento) le iniziative per l’autosufficienza tecnologica negli ambiti in cui la sovranità europea deve esercitarsi, mentre gli Stati membri collaborano (e co-finanziano le iniziative) tenendo conto dei propri interessi e dei “perimetri” decisi a livello nazionale. Un elemento chiave di questa strategia sono le piattaforme di super-calcolo, su cui eseguire l’addestramento dei grandi modelli di apprendimento computazionale che sono di interesse strategico per l’industria europea. I supercomputer stanno diventando sempre più fondamentali per i ricercatori delle università e delle aziende, consentendo ad esempio, di eseguire i modelli meteorologici o testare nuovi farmaci. La prossima generazione di HPC potrebbe includere acceleratori quantistici, aprendo intere nuove gamme di applicazioni.
EuroHPC leva per l’ecosistema industriale europeo
L’esperienza d’oltreoceano però mostra chiaramente che chi possiede la conoscenza sulla piattaforma HPC controlla i modelli AI-ML che vi si eseguono, e può influenzare la capacità competitiva di chi li usa. Inoltre, se EuroHPC realizzerà il supercomputer attraverso catene di approvvigionamento europee, contribuirà a colmare il ritardo del Vecchio Continente nel progetto di chip avanzati e altre tecnologie chiave, costruendo un ecosistema industriale europeo attorno al calcolo ad alte prestazioni.
Per attuare la strategia della sovranità digitale a due livelli nel supercalcolo i primi otto supercomputer sono solo l’inizio. È necessario che le aziende e le Università europee raccolgano la sfida, creando le opportune aggregazioni e mettendo in comune le competenze. Per l’Università italiana, l’istituzione nel 2020 del Laboratorio Nazionale del Consorzio Interuniversitario Nazionale per l’Informatica (CINI), oggi diretto da Marco Aldinucci, è stato un passo importante in questa direzione.
Ancora più importante è trovare le risorse per co-finanziare i futuri progetti di EuroHPC. Il super-calcolo costa caro, e la decisione di svilupparlo autonomamente in Europa vuol dire accollarsi gli investimenti per l’innovazione e la ricerca oltre ai costi di esercizio. Una proposta della Commissione europea è stata presentata nel settembre 2020 e il Consiglio Europeo ha concordato un orientamento generale nel maggio 2021, ma il budget della Commissione Europea per la ricerca e sviluppo, da ripartire tra vari strumenti di intervento è attualmente sotto pressione, e quindi il reperimento delle risorse non è scontato.
Il nuovo regolamento EuroHPC
La quota europea delle risorse per EuroHPC, di gran lunga la più ingente, è stata reperita allineando il nuovo regolamento EuroHPC al quadro finanziario pluriennale dell’UE per gli anni 2021-2027 e consentendo così al programma EuroHPC di utilizzare i finanziamenti dei programmi dell’UE, Horizon Europe, Digital Europe e Connecting Europe Facility. Rispetto ai programmi base da cui provengono le risorse, l’assegnazione del budget a EuroHPC introduce dei vincoli legati alla collocazione geografica dei progetti, in modo da poter chiamare a raccolta un co-finanziamento da parte degli Stati membri che – come l’Italia – sono interessati a mantenere anche a livello nazionale una quota della futura sovranità digitale europea in tema di supercalcolo.
Supercalcolo e transizione verde
È importante mettere in rilievo due principi fondamentali del regolamento, che si aggiungono alla dottrina della sovranità digitale. Il primo è la coerenza della piattaforma di supercalcolo europea con gli obiettivi di transizione verde dell’UE. L’attuale equazione energetica del supercalcolo, che genera una potenza di calcolo estremamente elevate in punti localizzati, ma assorbe una quantità altrettanto grande di energia, andrà profondamente rivista nei progetti EuroHPC. La potenza di calcolo può essere trasferita quando serve verso i bordi della rete, in modo da eseguire preelaborazioni che aumentano il valore da trasferire verso il cuore HPC.
Ad esempio, immaginiamo di acquisire dati anonimizzati relativi ai segnali fisiologici (EEG, ECG) degli automobilisti attraverso un Intelligent Transportation System (ITS) autostradale dotato di processori edge su unità di bordo portatili. In questo scenario si può pre-elaborare in tempo reale una grande quantità di informazioni e poi inviarle via rete mobile a un modello (addestrato periodicamente su HPC) che stimi il rischio di situazioni critiche su un certo segmento di autostrada. L’inferenza a due livelli del modello, che va fatta costantemente, diviene così un’attività molto meno energivora del suo addestramento centralizzato, che può essere programmato quando l’energia costa poco.
È importante rilevare che la sola sostenibilità non basta per ottenere una pipeline HPC “ verde”: occorre valutazione l’adeguatezza delle misure di protezione dei dati rispetto ai principi etici, e in particolare al principio di autodeterminazione, cioè il diritto delle persone di decidere della loro sfera personale; al principio di precauzione, per cui la ricerca deve ridurre ad un minimo accettabile i rischi per le persone, gli animali, l’ambiente; al principio di proporzionalità, per il quale nell’attività di ricerca le azioni da intraprendere e le risorse impiegate devono essere adeguate agli obiettivi da raggiungere e infine al principio di solidarietà, che mira a salvaguardare e incoraggiare il benessere di tutti, soprattutto i più deboli. Nel caso dell’esempio, si tratta di gestire la possibilità di violazioni della privacy (l’EEG può identificare gli individui anche su dati anonimizzati) e quella della diffusione di informazioni potenzialmente per dannose per i soggetti nel caso della rilevazione di violazioni al codice della strada.
La grande scommessa sulla tecnologia quantistica
Il secondo principio invece è (almeno per ora) una scommessa: l’introduzione della tecnologia quantistica nelle piattaforme di supercalcolo finanziabili tramite EuroHPC. Scientificamente, non è ancora chiaro se e come il vantaggio quantistico potrà essere acquisito e sfruttato nelle computazioni su larga scala per l’intelligenza artificiale, ma proprio questa incertezza crea una finestra di opportunità in cui l’Europa potrebbe inserirsi. Male che vada, l’approccio quantistico alla comunicazione potrà essere usato nelle comunicazioni interne alle architetture di calcolo classiche, ad esempio sviluppando dei bus ottici basati su tecniche di fotonica quantistica, un argomento su cui la ricerca italiana ha parecchio da contribuire.