Nel mese di giugno 2023 hanno preso il via le attività del Software & Integration lab (SWI), il living lab nato nel Dipartimento di Informatica dell’Università di Torino per sostenere la ricerca e il trasferimento tecnologico nell’ambito del calcolo alte prestazioni (HPC), cloud computing e delle loro applicazioni per Big Data e Intelligenza Artificiale.
Il laboratorio nasce come luogo di progettazione, integrazione e validazione di prototipi di software insieme a partner industriali, utilizzando le conoscenze accademiche per formare la prossima generazione di ricercatori industriali in HPC, cloud computing e Big Data. Un analogo living lab sul tema Hardware & Systems è attivo presso il dipartimento di Ingegneria Elettronica dell’Università di Bologna. Le attività del laboratorio di Bologna sono focalizzate sullo sviluppo di prototipi di sistemi di calcolo innovativi, l’analisi delle loro prestazioni con particolare enfasi sulla efficienza energetica.
Si tratta dei due laboratori definiti all’interno dello Spoke Future HPC & Big Data del Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing (ICSC), previsto dal PNRR, di cui l’Università di Bologna e Torino sono leader. L’obiettivo dei living lab è quello di creare uno spazio di co-working per i ricercatori delle Università e delle aziende coinvolte nello Spoke finalizzato al trasferimento tecnologico e alla formazione dei giovani ricercatori per l’industria.
Il centro di Ricerca in HPC, Big Data e Quantum Computing (ICSC)
ICSC è uno dei cinque campioni nazionali finanziati dal PNRR con 320 milioni di euro. È organizzato secondo un modello Hub&Spoke, dove lo Hub ha funzioni di coordinamento e gli Spoke sono dipartimenti scientifici partecipati da università e aziende in tutto il territorio nazionale. ICSC ha 11 Spoke che rappresentano diverse aree del calcolo elettronico ad alte prestazioni. Ogni Spoke ha un leader e un co-leader che ne realizzano la direzione scientifica.
Lo Spoke 0) Supercomputing cloud infrastrutture ha il compito di realizzare le grandi infrastrutture di calcolo a livello nazionale ed europeo in grado di competere a livello globale fra le più efficienti al mondo e metterle a disposizione degli altri Spoke e dell’intera comunità scientifica. Lo Spoke 0 è partecipato da CINECA per le infrastrutture di supercalcolo, da INFN per l’infrastruttura dati distribuita e dal GARR per il potenziamento della rete informatica a livello nazionale. Al momento il sistema modulare Leonardo di CINECA è classificato al quarto posto fra i sistemi di calcolo più veloci al mondo (238 petaFLOPS), che grazie a ICSC e al cofinanziamento di EuroHPC JU sarà ulteriormente potenziato di 100 petaFLOPS grazie ad modulo addizionale (chiamato “Mona Lisa”).
Gli Spoke 1) FutureHPC & BigData e 10) Quantum Computing sono focalizzati sulle piattaforme, i metodi, e gli strumenti del calcolo elettronico del futuro. FutureHPC & Big Data ha uno sguardo evolutivo sul futuro del calcolo elettronico basato sulle architetture e sui metodi del calcolo elettronico classici, fondati sulla logica binaria e coerenti con il modello di calcolo espresso dalla Macchina di Turing. Quantum Computing (QC) guarda ad un futuro più lontano e necessariamente più incerto. Il QC promette una possibile rivoluzione del calcolo che supera i limiti della fisica classica a cui è legata la macchina di Turing e gli algoritmi che questa è in grado di modellare, come ad esempio, la generazione di numeri veramente casuali (e non pseudo-casuali) e la soluzione polinomiale di problemi intrattabili (ad esempio la rottura di una chiave crittografica oggi utilizzata garantire gli scambi di denaro).
Gli Spoke 2-9 sono focalizzati sulle aree scientifiche che più beneficiano del calcolo ad alte prestazioni: 2) Fundamental research & space economy; 3) Astrophysics & cosmos observation; 4) Earth & climate; 5) Environment & natural disasters; 6) Multiscale modelling & engineering applications; 7) Material & molecular sciences; 8) In-silico medicine & omics data; 9) Digital society & smart cities. Tutti gli Spoke sono descritti in dettaglio nel sito di ICSC.
Lo Spoke FutureHPC & BigData e i living lab per hardware e software
Lo Spoke 1) FutureHPC & BigData è il pilastro tecnologico di ICSC che abbraccia lo sviluppo di tecnologie hardware e software altamente innovative per i super-calcolatori e i sistemi di calcolo del futuro. Le attività di ricerca e sviluppo pianificate nello Spoke sono organizzate in 5 “flagship” scientifico-tecnologiche (vedi Figura 1) che sono le unità operative della ricerca e che sono partecipate da 15 università (e istituti di ricerca) e 9 grandi industrie: Univ. Bologna, Torino, Pisa, Padova, Napoli, Catania, Calabria, Roma Tor Vergata, Ferrara, Politecnico di Milano e Torino, INAF, CINECA, ENEA, IIT, Autostrade, ENI, Engineering, Fincantieri, Intesa SanPaolo, Leonardo Company, Sogei, ThalesAlenia spazio, UnipolSai e iFAB.
Oltre le attività scientifiche che si svolgono nelle flagship, lo Spoke FutureHPC implementa due living lab, dei laboratori fisici co-locati nelle università leader (UNIBO e UNITO) che raccolgono contributi scientifici da tutte le flagship con l’obiettivo di realizzare dei prototipi e dimostratori delle tecnologie più promettenti, di sostenere il trasferimento tecnologico e la costruzione di una prospettiva di sostenibilità per le attività dello Spoke oltre la finestra di finanziamenti sostenuti dal PNRR (2022-2026). I due living lab puntano a definire un esempio paradigmatico di l’innovazione in ambito tecnologico costruito sulla contaminazione fra accademia e industria.
Oltre a servire da presidio tecnologico per tutti i partecipanti allo Spoke, i living lab ambiscono a realizzare un centro federato nazionale di livello mondiale con competenze per la co-progettazione hardware e software, e di rafforzare la leadership italiana nell’Impresa Comune Europea (Joint Undertaking) EuroHPC e nell’ecosistema dell’infrastruttura dei dati per la scienza e per l’industria.
Scientificamente, lo Spoke FutureHPC affronta i temi di ricerca principali legati al calcolo moderno: il calcolo ad alte prestazioni e le sfide del calcolo scientifico, ma anche le applicazioni di interesse per mercati con grandi volumi, come cloud e edge computing, gateway IoT, veicoli autonomi, alle sfide dell’intelligenza artificiale per cui sono essenziali sistemi (hardware + software) di calcolo aperti, efficienti dal punto di vista energetico e ad alte prestazioni.
L’investimento sulle licenze aperte come metodologia
Metodologicamente, FutureHPC scommette sulle licenze aperte (open hardware, open source software, open standards) come booster per l’innovazione in ambito tecnologico. Per il software di sistema e le più diffuse applicazioni il modello open source ha già dimostrato il suo grande vantaggio competitivo rispetto al modello closed source sia per quanto riguarda la qualità del prodotto che per la sua capacità di sostenere un modello di business di grande successo industriale. I sistemi cloud/edge più diffusi al mondo adottano soluzioni open source, a partire dalle compagnie Over-the-Top (Google, Facebook, Oracle, Microsoft, IBM, …) che in molti casi hanno costruito servizi a valore aggiunto (come i servizi cloud) su una base di software che continua ad essere mantenuto con licenza open source a garanzia di affidabilità e trasparenza e che utilizza anche la moltitudine di sviluppatori diffusi in tutto il mondo per verificare e aggiornare continuamente il software garantendo la soluzione di problemi di correttezza e sicurezza. Solo per rimanere nel dominio del software di sistema, sono open source Linux, git, gcc, llvm, MySQL, Node.js, Docker, Hadoop, Spark, MongoDB, Pytorch, OpenStack, SLURM.
Spinta dalla crescente popolarità del set di istruzioni RISC-V, anche la progettazione hardware dei sistemi di calcolo sta progressivamente abbracciando l’approccio aperto sia per quanto riguarda la specifica del set di istruzioni sia per le possibili implementazioni, che possono essere distribuite in forma di sorgente (a vari livelli di specifica del sistema hardware). L’approccio open hardware, grazie alla possibilità di estendere l’insieme delle istruzioni, accompagna la tendenza —tecnologicamente inevitabile— a costruire sistemi ad alte prestazioni assemblando più processori e acceleratori specializzati (piuttosto che a sviluppare grandi processori “general-purpose”). La possibilità di definire nuovi processori a partire da una implementazione corretta, performante e aperta moltiplica le opportunità di ricerca e trasferimento tecnologico sia per i progettisti di sistemi che per gli utilizzatori (che non devono pagare la licenza di uso del set di istruzioni). L’approccio open hardware, accoppiato con open software, ha la potenzialità di innovare e rifondare in modo significativo la geografia mondiale dell’economia basata sul calcolo elettronico.
Gli open standard sono un importante supporto strategico sia per open hardware che software e i loro modelli di business. Gli standard permettono di investire nello sviluppo di sistemi interoperabili che mantengono il loro valore nel tempo. Per esempio, un codice sviluppato secondo lo standard C++20 potrà essere compilato con qualsiasi compilatore aderente allo standard, sia esso prodotto dalla comunità open source (es. gcc), da Microsoft o qualsiasi altra industria che produca compilatori. Allo stesso modo, un processore con set di istruzioni RISC-V (ad una certa versione) potrà eseguire tutte le applicazioni compilate per quel set di istruzioni. Analogamente, una pipeline per applicazioni genomiche espressa secondo lo standard emergente Common Workflow Language (CWL) potrà essere eseguita da tutti i tool che lo implementano (es. StreamFlow, Arvados, Toil, etc.). Per questo la capacità di un ecosistema di ricerca di partecipare e influenzare lo sviluppo degli open standard è direttamente legata alla possibilità di preservare l’investimento in hardware e software e quindi di produrre innovazione.
I bandi a cascata: una concreta opportunità per le PMI e la filiera del HPC
A fine settembre 2023 saranno pubblicati i bandi a cascata dello Spoke FutureHPC che hanno fra gli obiettivi quello di finanziare PMI del territorio (in forma individuale e consorziata con enti ricerca o altre aziende) e riuscire a costruire una vera e propria filiera del calcolo ad alte prestazioni. Si tratta di 3,2M€ che lo Spoke distribuirà a soggetti non appartenenti al centro nazionale: industrie, PMI ed altri soggetti accademici. Il 51% dei bandi a cascata sarà destinato a industrie e PMI. L’obiettivo a lungo termine è aumentare la consapevolezza industriale e i livelli di prontezza per l’adozione di tecnologie digitali avanzate come parte integrante del processo di innovazione e del core business industriale. La capacità di innovazione è direttamente collegata alla capacità del settore di comprendere e possibilmente controllare lo stack digitale end-to-end, dalla selezione dell’hardware agli strumenti di sviluppo fino alle applicazioni, dove il vantaggio competitivo più importante per il settore è l’innovazione nei livelli più bassi dello stack software, non nelle applicazioni e nei livelli di servizio basati su strumenti di base. Un concetto che si riassume ricordando le parole di Steve Jobs (che citava Alan Key) al momento del lancio dell’iPhone (2007) “Le persone che prendono sul serio il software dovrebbero creare il loro hardware”. Nello Spoke FutureHPC, lo stesso concetto si estende a tutto lo stack del software di sistema che si interpone fra applicazioni e hardware: dai servizi cloud agli strumenti di sviluppo delle applicazioni al software di sistema.
Il living lab “Software & Integration” dello Spoke FutureHPC & Big Data
Nel mese di giugno 2023 hanno preso il via le attività del Software & Integration lab (SWI), il living lab nato nel Dipartimento di Informatica dell’Università di Torino per sostenere la ricerca e il trasferimento tecnologico nell’ambito del calcolo alte prestazioni (HPC), cloud computing e delle loro applicazioni per Big Data e Intelligenza Artificiale. Il laboratorio nasce come luogo di progettazione, integrazione e validazione di prototipi di software insieme a partner industriali, utilizzando le conoscenze accademiche per formare la prossima generazione di ricercatori industriali in HPC, cloud computing e Big Data.
Il responsabile del laboratorio e co-leader dello Spoke FutureHPC & Big Data, ha collaborato con l’Arch. Lavinia Chiara Tagliabue alla pianificazione degli spazi (350mq) secondo il concetto di design modulare, in modo che l’intero arredamento possa essere trasferito nel 2026 nel nuovo edificio del dipartimento di Informatica dell’Università di Torino. Tutti i dispositivi, sia il data center che gli uffici, sono progettati per soddisfare i migliori parametri di efficienza energetica e la collaborazione fra i ricercatori. Attualmente sono già al lavoro presso il laboratorio una decina di giovani ricercatori (RTDA, PhD, borsisti) finanziati dal ICSC e da altri progetti Europei.
La maggior parte delle industrie nazionali acquisisce strumenti di sviluppo come servizi dalle multinazionali del cloud computing, limitandosi all’utilizzo di tecnologie standard e rinunciando alla possibilità di realizzare profitti nei segmenti di business più redditizi, che non sono le applicazioni per gli utenti finali ma tecnologie e gli strumenti per realizzarli, che includono piattaforme innovative per l’analisi e la gestione dei dati sicure e rispettose della privacy per i sistemi edge/distribuiti di prossima generazione.
Il living lab SWI mira a costruire un percorso di formazione continua per esperti di software avanzato alla confluenza fra HPC, AI e cloud. Il metodo di lavoro è il cosiddetto learning-by-doing, ovvero lo sviluppo di strumenti software all’avanguardia fino al livello degli appalti pre-commerciali, elemento cruciale (oltreoceano) della catena del valore dei distretti industriali che crescono intorno a solidi centri di ricerca e università.
Il lab SWI è strettamente collegato con il datacenter HPC4AI del Dipartimento di Informatica dell’Università di Torino, che oggi è tra i datacenter più avanzati in Italia e fra i migliori al mondo come efficienza energetica (superiore al 90%, la media italiana è del 65%). Grazie alla sua progettazione esplicitamente diretta a supportare attività di ricerca in ambito informatico, HPC4AI ospiterà i prototipi dei sistemi sviluppati grazie al lab SWI e permetterà di metterli a disposizione di tutti i partner ICSC che vogliano utilizzarli per scopo di ricerca di base e industriale.
Alla realizzazione fisica del laboratorio SWI è stato destinato 1,35M€ nell’ambito dei 4,6M€ del finanziamento ricevuto dall’Università di Torino nell’ambito del Centro nazionale di ricerca HPC, Big Data e Quantum Computing, che a sua volta è finanziato dalla EU mediante il Piano Nazionale di Ripresa e Resilienza (PNRR).
Una progettazione a supporto della contaminazione fra università e industria
Il laboratorio SWI punta a definire un esempio paradigmatico d’innovazione in ambito tecnologico costruito sulla contaminazione fra accademia e industria. Nei living lab, Alla normale attività di ricerca di base si affianca la realizzazione di progetti “Proof-of-Concept” (PoC) in collaborazione con l’industria. Un PoC viene definito raccogliendo un bisogno industriale (un metodo, un processo, un software) per il quale il laboratorio o le università dello Spoke FutureHPC hanno già sviluppato soluzioni di ricerca di base (a basso TRL) che possono essere integrate e utilizzate in attività di ricerca industriale o sviluppo sperimentale. Il suo design è finalizzato a supportare diversi obiettivi:
Modularità
Il laboratorio può essere spostato o riprodotto in spazi e edifici diversi. Il laboratorio SWI si accoppia con l’architettura modulare aperta, già adottata da HPC4AI e ispirata ai lavori di E. Sottass per Olivetti Elea 9003 (Paesaggio elettronico, Domus 381, 196), primo calcolatore interamente transistorizzato al mondo.
Efficienza energetica
Tutti i dispositivi, sia il data center HPC4AI che gli uffici, sono software-defined, cioè possono essere programmati per ottimizzare i parametri scelti dall’utente (ad esempio il consumo energetico dei sistemi: dall’illuminazione al data center).
Benessere
Lo spazio di lavoro comprende spazi per il lavoro collaborativo, discussioni informali e relax, sostenendo e stimolando le opportunità di co-creazione, ma garantisce anche lo spazio per lavorare in isolamento. L’arredamento è scelto secondo standard di design di alta qualità. Il colore dell’illuminazione, la temperatura e l’umidità dell’aria sono continuamente controllate; l’aria è filtrata per ridurre la presenza di polveri sottili e virus.
Sostenibilità
Il laboratorio è co-finanziato dall’Università di Torino e ha un chiaro piano di sostenibilità basato su finanziamenti pubblici (UE e nazionali) e investimenti industriali. Fra i finanziamenti pubblici il progetto Horizon Europe Brainteaser che utilizza tecniche di AI per la diagnosi della sclerosi multipla, il Centro di Eccellenza Europeo SPACE sulla ricerca in astrofisica, oltre ai progetti più tecnologici finanziati dal EuroHPC JU: ACROSS per la definizione di workflow convergenti HPC e AI per applicazioni industriali (es. avionica); ADMIRE che studia gli storage ad alte prestazione di prossima generazione, TEXTAROSSA che punta a definire sistemi innovativi per l’efficientamento energetico del supercalcolo; i due progetti pilota per le piattaforme di calcolo europee a exascale EUPEX che usa processori ARM e EUPilot che investe su processori RISC-V; la European Processor Initiative (EPI) che sta sviluppando la tecnologia necessaria a costruire processori europei (ARM e RISC-V); EUMAster4HPC il progetto per definire un corso di laurea europeo e i processi di formazione continua sul tema HPC. I progetti in corso sono descritti nel sito web del laboratorio.
Sistemi all’avanguardia
Il laboratorio SWI investe in sistemi e prototipi allo stato dell’arte della tecnologia in molti casi ancora non disponibili sul mercato per fornire ad università e industrie un ambiente sviluppo per le soluzioni di prossima generazione. Per esempio, nel 2024 riceverà una delle prime schede con chip ad alte prestazioni europeo “Rhea” sviluppate proprio dal progetto European Processor Initiative (EPI) e a fine 2023 ospiterà il primo prototipo di computer per applicazioni AI dotato di “two-phase cooling”, frutto della ricerca del progetto TEXTAROSSA. Il two-phase cooling può trasportare in modo efficiente il calore prodotto dalle GPU (gli acceleratori oggi utilizzati per applicazioni AI) fuori dai server usando il calore latente di evaporazione di un fluido, che evapora a contatto con la GPU e condensa fuori dal server. Questo tipo di sistema permette di raffrescare le GPU con notevole risparmio energetico rispetto ai metodi basati su raffreddamento a liquido (ad una fase), che sono oggi lo stato dell’arte per il raffrescamento dei sistemi ad alte prestazioni. Grazie a 4 GPU NVidia H100 SXM, il sistema sarà capace di produrre oltre 4 teraFLOPS (T F-32) e a differenza di altri sistemi basati su H100 avrà un sistema di raffrescamento interamente programmabile in modo da poter studiare l’efficienza energetica del calcolo in diverse condizioni operative e ambientali. Tutti i sistemi di calcolo sono ospitati nel datacenter HPC4AI
Il living lab SWI opera in stretta sinergia con il data center HPC4AI, dell’Università di Torino. HPC4AI nasce nel 2018 con un investimento di oltre 4M€ grazie un co-finanziamento del programma POR-FESR 2014-2020 Regione Piemonte e si sostiene autonomamente fornendo servizi di calcolo a ricercatori e aziende. HPC4AI è un data center Tier-3[1] da 250 KW (PUE ~1.12 – vedi monitoraggio in tempo reale) con 16 rack (22 KW/rack) e ospita un sistema di produzione cloud-HPC progettato da alcuni dei ricercatori del living lab SWI. HPC4AI è organizzato (schematizzato in Figura 2) per ospitare un sistema di produzione Cloud-HPC ad alta affidabilità e una collezione di prototipi destinati allo sviluppo e alla validazione (Prototypes).
Figura 2: Architettura del data center HPC4AI
Il sistema Cloud-HPC offre un’interfaccia moderna, fondata su servizi cloud PaaS/SaaS, per i servizi di calcolo HPC, che fungono da acceleratori di servizi cloud[2]. Il sistema cloud è basato su OpenStack con possibilità di attivare istanze private e sicure Kubernetes, grazie alla PaaS “OpenDeepHealth” appositamente sviluppata per garantire ambienti di lavoro sicuri per applicazioni in ambito medico. Il sistema HPC è modulare ed è composto da 4 cluster con caratteristiche e processori diversi fra di loro, in modo da poter provare le applicazioni su diversi hardware. Il sistema HPC è gestito con (una versione estesa) di SLURM e il package manager Spack. I metodi e il software necessario per l’accoppiamento fra i servizi cloud e HPC è uno dei temi principali di ricerca del lab SWI. Fra i software attualmente in sviluppo nel lab:
- StreamflowWorkflow Manager System, 100% conforme al open standard Common Workflow Language (CWL) che permette di eseguire workflow distribuiti su sistemi multi-cloud e cloud-HPC (Kubernetes, SLURM, PBS, AWS, etc).
- CAPIO burst buffers (Cross-Application Programmable I/O), che trasforma in modo trasparente lo scambio di file fra applicazioni in data stream paralleli, migliorando la velocità delle pipeline scientifiche senza modificare il codice.
- JupyterWorkflow che permette la parallelizzazione automatica di Notebook Jupyter e la loro esecuzione distribuita (grazie a StreamFlow) in una varietà di sistemi cloud-HPC.
- Dossier, una piattaforma cloud per il deployment di ambienti Jupyter privati (sicuri, segregati e multi-tenant) su Kubernetes. Accoppiato con JupyterWorkflow realizza un co-lab per applicazioni ML, anche utilizzabile per creare laboratori virtuali (ad esempio per hackathon o laboratori didattici).
I living lab e le azioni di trasferimento tecnologico
Il living lab SWI è progettato per realizzare progetti che trasportano esigenze industriali (proposte dalle industrie) utilizzando metodi e IP sviluppati dall’università al fine di innescare un percorso di trasferimento tecnologico per la ricerca accademica e per formare ricercatori industriali di nuova generazione con esperienza di problemi industriali e tutoraggio accademico.
A partire da settembre 2023, ai fondi già assegnati e ai bandi a cascata, si aggiungeranno ulteriori finanziamenti (chiamati “Innovation Grants”) provenienti dal Centro Nazionale legati a 6 progetti di ricerca industriale del valore totale di 600k€ da realizzare all’interno del laboratorio SWI in collaborazione con ENI, Intesa Sanpaolo, Sogei, Thales-Alenia Spazio, Leonardo Company, iFAB e UnipolSai. Alcuni esempi.
Cross-Platform Full Waveform Inversion (proposto da ENI)
Il progetto ambisce a modernizzare l’approccio alla programmazione delle applicazioni in ambito sismico rimuovendo la cablatura del calcolo del problema inverso (tipicamente segreto industriale) dal codice dell’applicazione. Il calcolo del problema inverso è necessario, per esempio, per ricostruire la stratificazione del sottosuolo a partire da campagne di indagini sismiche a rifrazione. L’approccio mira a descrivere l’applicazione mediante la composizione di diverse fasi descritte mediante WMS portabili e open standard (come StreamFlow e CWL). Le fasi collegate alla risoluzione del problema inverso saranno isolate in alcuni passi del workflow e descritte utilizzando un approccio di alto livello (ad esempio, la libreria Devito). Nel complesso, il progetto punta a innovare il tradizionale processo di co-design con la portabilità del codice e delle prestazioni. ENI è tra i primi utilizzatori al mondo di soluzioni HPC e possiede (nel datacenter di Ferrea Erbognone PV) il cluster HPC di natura industriale più potente al mondo
FLaaS: Federated-Learning-as-a-Service (proposto da iFAB)
Il Federated Learning (FL) è una tecnica emergente per addestrare modelli mediante tecniche Machine Learning mettendo insieme virtualmente dati di più istituzioni (quindi creando grandi dataset) senza però né condividere né concertare i dati in un solo luogo (fisico o logico). Il FL permette a più istituzioni di condividere la conoscenza senza condividere i dati, rispettando la privacy e la sicurezza delle informazioni. Il paradigma FlaaS, oggetto di studio, va oltre il FL come oggi supportato dai principali sistemi per FL (di Intel, Nvidia, HPE, etc.) perché ridisegna il FL senza alcun punto di centralizzazione, aprendo le porte a un nuovo modello di business per i dati: un possessore di dati può concedere in affitto i propri dati a terzi per l’addestramento di modelli senza cedere informazioni significative sui dati, chi usa i dati dovrà affittarli di nuovo per ogni nuovo addestramento di un modello. FLaaS può essere anche immaginato come un protocollo per federare i supercomputer o sistemi cloud diversi.
Analysis and monitoring of critical distributed systems through Secure AI (proposto da Leonardo Company)
Il progetto propone lo studio e lo sviluppo di soluzioni che garantiscano la portabilità di workflow complessi che implementano Digital Twin (DT). Il progetto è parte di un progetto più ampio che coinvolge diversi spoke del CN HPC e affronta lo sviluppo di algoritmi di Machine Learning (ML) per la diagnosi e la gestione di Cyber-physical system (CPS) distribuiti. L’addestramento e la validazione dei modelli sarà effettuata anche con dati prodotti da Digital Twins (DT) dei CPS coinvolti che alimenteranno l’algoritmo ML con dati di simulazione. Il progetto raccoglie diversi casi d’uso da altri partners in sinergia tra diversi domini industriali es. Spazio, Aerospazio, Energia, Smart Grid, Infrastrutture Critiche, ecc.), per raggiungere una strategia nazionale comune di ricerca e piattaforme tecnologiche condivise basate su IA e HPC per applicazioni di “Prognostics and Health Management” (PHM).
Il living lab Hardware&Systems dello Spoke FutureHPC
Il living lab HWS ha l’obiettivo di esplorare soluzioni hardware innovative per i futuri sistemi di calcolo ad alte prestazioni con applicazioni che vanno dalle simulazioni su larga scala, ai sistemi di guida autonoma, ai sistemi satellitari. In particolare, il programma delle attività del laboratorio si propone di avanzare lo stato dell’arte in alcune aree strategiche: (i) la progettazione hardware di processori ad alta efficienza energetica basati su architetture open-standard (RISC-V), (ii) lo sviluppo e la prototipazione di sistemi di calcolo eterogenei che combinano processori ed acceleratori specializzati per diversi domini applicativi, (iii) lo studio e la messa in opera di sistemi per il controllo dinamico e l’ottimizzazione dei consumi energetici degli apparati di calcolo.
A partire da settembre 2023 ai fondi già assegnati, si aggiungeranno ulteriori finanziamenti provenienti dal Centro Nazionale legati a progetti di ricerca industriale del valore totale di 300k€ da realizzare all’interno del laboratorio SWS in collaborazione con Leonardo e Thales-Alenia Space.
Questo ambizioso progetto si concentrerà sullo studio e lo sviluppo di un’architettura di calcolo ad alte prestazioni basata su processore RISC-V adatto per il calcolo spaziale a bordo di satelliti. Partendo da una analisi dello stato dell’arte, verrà selezionata e configurata un’architettura per adattarsi al meglio ai requisiti dell’applicazione di bordo. Il progetto si baserà sul benchmark e sullo sviluppo di un caso d’uso spaziale rappresentativo, approfondendo anche gli aspetti del sistema operativo, della libreria e della toolchain. L’obiettivo di questo lavoro è identificare una possibile architettura hardware innovativa basata su RISC-V adatta alle esigenze delle moderne applicazioni spaziali, migliorare la conoscenza degli strumenti di sviluppo RISC-V disponibili ed eventualmente sviluppare il software necessario per sfruttare la nuova architettura.
Note
- La dicitura Tier-3 indica un data center con più percorsi per l’alimentazione e il raffreddamento e sistemi ridondanti con uptime atteso > 99,982% per anno. ↑
- I principi di progettazione di HPC4AI sono descritti in “M. Aldinucci, et al.”HPC4AI, an AI-on-demand federated platform endeavour,” in ACM Computing Frontiers, 2018, http://dx.doi.org/10.1145/3203217.3205340.