Tra le iniziative volte ad approfondire la conoscenza del COVID-19 e a studiare delle possibili soluzioni per contenerne la diffusione, limitarne gli effetti, inibirne lo sviluppo c’è quella organizzata da CLAIRE, la confederazione europea dei laboratori di ricerca sull’intelligenza artificiale, che ha organizzato alcuni gruppi di scienziati volontari focalizzati sui diversi aspetti della pandemia. Emanuela Girardi, coordinatrice della Task Force di CLAIRE su AI & COVID-19, ha sostenuto la creazione di un gruppo di ricerca europeo guidato dal Professor Marco Aldinucci (UNITO) e focalizzato sulla diagnosi della polmonite da COVID-19 assistita dall’intelligenza artificiale.
Il gruppo di ricerca su AI e COVID-19
Formato da circa venti ricercatori tra radiologi, esperti di immagini mediche, Intelligenza Artificiale (AI) e calcolo ad alte prestazioni (HPC), il gruppo ha iniziato a lavorare alla definizione di un workflow in grado di automatizzare in modo riproducibile il confronto di modelli AI basati su deep learning presenti in letteratura per la diagnosi del COVID-19.
Il workflow si è successivamente evoluto verso una “pipeline universale ” per AI , capace di riprodurre diversi modelli di AI esistenti in letteratura per l’analisi delle immagini mediche, quindi di permettere la definizione di una baseline per le prestazioni di queste tecniche che possa essere utilizzata in futuro per misurare oggettivamente i progressi nella diagnosi. La “pipeline universale” include aspetti innovativi, come per esempio un passo di “adversarial learning” che applicato alle reti esistenti le rende interpretabili, cioè capaci di fornire ai medici non solo la diagnosi ma anche indicazioni su quali lesioni polmone sono determinanti per la diagnosi.
L’interpretabilità dei modelli è oggi alla frontiera della ricerca sull’apprendimento automatico basato su reti neurali profonde (DNN), che si sono dimostrate tanto efficaci quanto oscure nel fornire spiegazioni in merito alle decisioni che prendono. L’uso intensivo di reti neurali motiva la presenza di esperti di calcolo ad alte prestazioni nel gruppo. Le reti neurali, note da almeno 50 anni, negli ultimi hanno beneficiato di risultati teorici importanti ma soprattutto hanno potuto trarre vantaggio dalla crescente potenza di calcolo delle nuove architetture hardware e software che adottano i metodi tipici del calcolo ad alte prestazioni (HPC – High-Performance Computing).
Come funziona la diagnosi tramite AI
L’allenamento di un modello per la diagnosi della polmonite da COVID-19 effettuata sul dataset più grande pubblicamente disponibile con oltre 120 mila immagini da oltre 1300 pazienti (BIMCV) necessita 15 ore anche utilizzando un acceleratore hardware fra i più efficienti sul mercato (GPU NVidia V100 con oltre 5000 CUDA cores).
Tuttavia, comparare tutti i migliori modelli con le loro varianti è un lavoro ben più impegnativo. Il workflow, progettato in collaborazione con il Professor Concetto Spampinato (UNICT), ha, infatti, almeno 7 passi ognuno dei quali con diverse varianti stato dell’arte (2 per pre-training, 5 per segmentation, 11 per classification con 3 iperparametri). Esplorare anche una sola volta questo spazio di 990 varianti necessita quasi 2 anni di calcolo usando la singola GPU più potente oggi disponibile. Un tempo inaccettabile, anche considerando che la messa a punto dei modelli richiede generalmente diverse esecuzioni. In realtà, questo tipo di esecuzione presenta una struttura abbastanza semplice dal punto di vista del calcolo (per questo chiamata “embarassingly parallel”) e può essere “teoricamente” accelerato con guadagno quasi perfetto su supercomputer dotato di acceleratori GPU, in questo caso passando da 2 anni a circa un giorno per un singolo esperimento (con un miglioramento di prestazioni di circa 700x).
Dalla teoria alla pratica
In questo caso l’avverbio “teoricamente” è necessario. Passare dalla teoria alla pratica richiede due ingredienti non banali da reperire:
- un supercomputer di dimensioni adeguate dotato di molte GPU di ultima generazione e
- un meccanismo in grado di semplificare e automatizzare l’esecuzione di tutte varianti del workflow su un supercomputer.
In realtà, entrambi i problemi hanno una comune radice: i supercalcolatori sono tradizionalmente utilizzati per il calcolo scientifico e non ancora attrezzati per supportare in modo efficace gli strumenti software tipici dell’IA e l’acquisizione di grandi quantità di dati in modo sicuro come richiesto dalle applicazioni in ambito medico; simmetricamente, i ricercatori AI tipicamente utilizzano processi di ottimizzazione dei modelli e strumenti interattivi poco adatti all’esecuzione batch utilizzata nei supercomputer. Tuttavia, è oggi chiaro che le due comunità necessitano l’una dell’altra e sono destinate a sempre più frequenti interazioni.
Il Memorandums of Understandings (MoU) siglato da CLAIRE, ABD (Associazione Big Data) e CINI (Consorzio Interuniversitario Nazionale per l’Informatica) fa un passo avanti in questa direzione mettendo a disposizione ingenti risorse di calcolo al gruppo europeo di CLAIRE sulla diagnosi per immagini e più in generale, mediante CINI, a tutti ricercatori italiani attivi nell’ambito della ricerca sul COVID-19. Specificamente ABD, mediante il suo associato CINECA ha messo a disposizione il supercalcolatore Marconi100 di CINECA fra i primi dieci calcolatori più potenti al mondo e dotato di almeno 4000 GPU NVidia V100, quindi particolarmente adatto ad elaborare calcoli per l’allenamento di reti neurali profonde (DNN). A partire dall’anno prossimo, grazie al finanziamento di 230 milioni di euro ottenuto dal programma Europeo EuroHPC JU, Marconi100 sarà affiancato dal nuovo supercalcolatore “Leonardo”, che è attualmente in fase di costruzione e che sarà almeno 10 volte più potente di Marconi100. Leonardo è stato progettato ed è destinato ad essere la macchina più potente al mondo per applicazioni di AI (10 exaFLOPS FP16). Leonardo raggiungerà anche un altro record, sarà il primo supercalcolatore pre-exascale progettato e costruito in Europa (da Atos-BULL su specifiche CINECA).
Un secondo passo è la progettazione e lo sviluppo di Streamflow, un innovativo Workflow Management System basato su open standard, portata avanti dal gruppo con il supporto del progetto EU DeepHealth e HPC4AI. Particolarmente adatto a semplificare e automatizzare workflow AI su sistemi ibridi cloud-HPC, Streamflow affronta direttamente i due maggiori ostacoli all’uso dei supercalcolatori per applicazioni AI:
- Usabilità: permette agli scienziati AI di lavorare con gli strumenti tipici dell’area di ricerca forniti mediante piattaforma cloud (ad esempio via kubernetes) spostando in modo automatico grande parte del calcolo sul supercomputer, che quindi viene utilizzato come un acceleratore di calcolo.
- Dati critici: Streamflow muove i dati fra le piattaforme cloud e HPC garantendo agli utenti di mantenere il pieno controllo su chi, come e quando può accedere ai dati, senza alcuna deroga di fiducia ai gestori delle infrastrutture.
Gli esperimenti sono iniziati e il gruppo sta valutando i primi risultati, che sono incoraggianti: dall’analisi preliminare del 1% delle varianti della “pipeline universale”, la baseline di prestazioni già raggiunge l’accuratezza di un radiologo esperto. E ugualmente incoraggiante è il fatto che, motivato dall’emergenza Covid-19, il gruppo è riuscito ad avviare un lavoro che ha la potenzialità di essere pionieristico nell’unire la comunità AI e HPC nello sviluppo degli strumenti digitali di prossima generazione, come i cosiddetti “digital twin”, affinché nessuna altra pandemia ci possa cogliere impreparati.