convergenza

HPC e cloud per affrontare le sfide dell’intelligenza artificiale: la piattaforma ENEA

A fronte della necessità di utilizzare piattaforme hardware eterogenee e architetture di calcolatori differenziate, nasce l’esigenza di arrivare a una convergenza tra l’High Performance Computing e il cloud per affrontare in maniera esaustiva le nuove sfide poste dall’intelligenza artificiale. La soluzione ENEA

Pubblicato il 25 Feb 2022

Angelo Mariano

AI/ML Researcher, ENEA Bari

hpc2

La proliferazione e la diversificazione dei flussi di lavoro nel grande calcolo richiede con sempre maggiore forza la convergenza tra il mondo dell’High Performance Computing (HPC) e del cloud computing per affrontare in maniera esaustiva le nuove sfide poste dall’intelligenza artificiale (IA).

Supercomputer, il ruolo dell’Italia nella competizione europea e globale

Se da un lato il mondo dall’HPC per anni è rimasto legato a elaborazioni numeriche anche molto sofisticate in un ambiente monolitico e rigido costruito su misura di una platea di utenti, volto a utilizzare direttamente le risorse dell’hardware sottostante, dall’altro lato il mondo del cloud computing si è andato affermando come paradigma di flessibilità e di versatilità, consentendo di trasportare la capacità computazionale in qualsiasi luogo e su qualsiasi piattaforma, grazie alle enormi potenzialità del web. Sotto un altro punto di vista però l’HPC ha potuto contare su infrastrutture parallele sempre più efficienti e veloci, sebbene con una curva di apprendimento molto ripida, con la difficoltà di individuare gateway di connessione alle risorse che semplificassero il ruolo del ricercatore. D’altra parte il cloud computing ha mostrato una grossa semplicità di utilizzo a fronte dell’uso di complessità di calcolo molto più basse.

Da dove nasce l’esigenza di una convergenza tra cloud e HPC

Grazie soprattutto alla necessità di utilizzare piattaforme hardware eterogenee e architetture di calcolatori differenziate, nasce dunque l’esigenza di arrivare a una convergenza tra queste due realtà. Le richieste di elaborazioni di algoritmi e modelli di IA spingono verso l’adozione di implementazioni più flessibili delle librerie e degli ambienti di sviluppo e addestramento dei codici. In particolare, emerge sempre più diffusa la richiesta di hardware specializzato, come le Graphic Processor Units (GPU), particolarmente indicate per il calcolo matriciale che è alla base dell’ottimizzazione delle reti neurali.

I flussi di lavoro HPC tradizionali possono essere arricchiti dalle tecniche di IA per velocizzare l’innovazione e la ricerca scientifica. Ricercatori e data scientists sviluppano nuovi processi per la risoluzione dei problemi che richiedono risorse computazionali ad alto livello di specializzazione e spesso si traducono in applicazioni di IA basate sul machine learning e deep learning. Queste applicazioni possono sicuramente trarre beneficio dalla virtualizzazione e dalle architetture cloud che consentono di ottenere librerie e strumenti personalizzati. Le tecnologie HPC e cloud devono convergere per accelerare la scoperta e l’innovazione, esercitando anche pressioni sui gestori dei sistemi ICT affinché supportino ambienti sempre più complessi. Le tecnologie di virtualizzazione basate su container indubbiamente eliminano i passaggi manuali che possono rallentare il provisioning e possono portare a errori di configurazione e automatizzano la distribuzione di librerie, framework, servizi, piattaforme e applicazioni personalizzati.

Il ruolo dell’ENEA nel campo del calcolo distribuito

L’ENEA, l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile, opera in diversi settori di ricerca e sviluppo, tra cui tecnologie energetiche, nuovi materiali, scienze della vita e ambientali. A supporto delle sue attività istituzionali di ricerca, la divisione per lo Sviluppo Sistemi per l’Informatica e l’ICT dell’ENEA fornisce risorse computazionali ad alta performance organizzate nell’infrastruttura distribuita ENEAGRID basata sui cluster HPC CRESCO, il cui ultimo cluster, CRESCO6, si è classificato al 420° posto nell’elenco TOP500 di novembre 2018. Queste risorse computazionali distribuite sui differenti centri di ricerca consentono all’ENEA di rivestire il ruolo di seconda realtà pubblica italiana nel campo del calcolo distribuito.

In corrispondenza alla sempre maggiore richiesta di integrazione tra cloud e HPC, queste risorse hardware HPC devono essere messe a disposizione per un insieme diversificato di ambienti e librerie che i ricercatori possono mettere insieme per risolvere i loro bisogni e portare a compimento le proprie attività scientifiche.

La virtualizzazione basata su container

Per applicazioni di elaborazione avanzate come simulazione, elaborazione ad alte performance, calcolo parallelo, machine learning, deep learning e analisi dei dati, la virtualizzazione basata su container può offrire la flessibilità necessaria per eseguire questi carichi di lavoro in ambienti diversi, con un’unica interfaccia per il provisioning e la distribuzione dei container, integrando modelli di framework facilmente scaricabili, integrabili e utilizzabili.

I container consentono a più applicazioni di funzionare in isolamento su un singolo host e incapsulano un’applicazione insieme all’ambiente di runtime di cui ha bisogno, consentendo di spostarsi quasi liberamente tra diversi host senza la necessità di riconfigurazioni speciali. Essi alleggeriscono notevolmente il lavoro degli amministratori di sistema, sono oggetti autoconsistenti, adatti ad essere condivisi e trattati come se fossero delle black box. Soprattutto nell’ambito HPC i container presentano però dei problemi di cosiddetta root escalation: in qualche modo in fase di creazione dei container è necessario utilizzare un utente con privilegi di root e questo utente potrebbe danneggiare o eseguire codice malevolo sull’intera infrastruttura, tale da intaccarne l’integrità. In particolare questa problematica è piuttosto sensibile in un contesto in cui non solo i container devono offrire servizi autoconsistenti ma anche devono eseguire dei compiti di calcolo avanzato su hardware specializzato. Le soluzioni di containerizzazione devono essere in qualche modo ripensate sia nella loro essenza che nell’architettura, ricorrendo a soluzioni open source alternative, create per essere interoperabili con gli strumenti e i flussi di lavoro già comuni nel mondo HPC.

In particolare, ENEA ha scelto di implementare sui propri sistemi il framework di containerizzazione open source “Singularity” che nasce appunto per trasferire il concetto della mobilità computazionale dal mondo cloud al mondo HPC. Tuttavia, il passaggio a Singularity e l’abbandono dell’attuale approccio “bare metal” richiede agli utenti di familiarizzare con un nuovo modo di pensare e con due azioni chiave: creare nuovi contenitori e quindi lanciarli sull’hardware specializzato di destinazione.

La piattaforma SaaS Crescoware

Nello specifico, nell’ambiente di calcolo distribuito CRESCO è nato Crescoware, una piattaforma Software-as-a-Service (SaaS) creata per facilitare gli utenti in questo cambio di paradigma. L’idea è di portare tutte le azioni necessarie per lavorare con i container all’interno di un ambiente visuale in grado di astrarre tutte le complessità insite nel processo di creazione e di fruizione dei container, promuovendo i vantaggi offerti dalla containerizzazione, con l’obiettivo di creare un’esperienza senza attriti nello sfruttamento delle risorse HPC di ENEAGRID.

La piattaforma Crescoware è operativa dalla fine del 2021 e pian piano si sta affermando come strumento utile all’elaborazione di ambienti personalizzati per cogliere tutte le potenzialità offerte dalle risorse HPC sia nell’ambito dello sviluppo di modelli di machine learning e deep learning con le librerie più aggiornate (tensorflow, pytorch, ecc), ma anche in campi molto diversificati, come ad esempio differenti applicazioni grafiche e modelli di simulazione di strutture cristalline e reticolari per l’analisi dei materiali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati