Supercomputing è la più importante conferenza mondiale dedicata all’High Performance Computing (HPC), caratterizzata non solo da presentazioni di lavori di ricerca, ma anche da un’imponente exhibition a cui partecipano vendor noti e meno noti che spesso mostrano tecnologie che non sono limitate all’ambito dei supercomputer e che dopo pochi anni troviamo nei sistemi enterprise.
Le tendenze 2024 del supercalcolo alla conferenza Supercomputing
Una breve panoramica sulle novità annunciate e i trend tecnologici che probabilmente avranno un impatto sulle architetture più vicine a noi.
Prima di addentrarci nelle novità è comunque da notare che il supercomputer numero 6 al mondo si chiama Leonardo ed è realizzato nell’ambito del progetto europeo EuroHPC presso il CINECA.
L’idraulica e l’AI
Non è il mio primo Supercomputing e l’exhibition è normalmente un’enorme giungla di stand caratterizzati da prototipi e campioni di elettronica e silicio, non può quindi passare inosservata una mostra che in alcuni tratti sembrava più un’esposizione di idraulica. Interi corridoi erano pieni di tubi e valvole sottolineando come il raffreddamento a liquido ormai sia divenuto un’importante elemento dei sistemi di calcolo.
Basti pensare che alcuni vendor consentono di installare in un solo armadio sistemi di calcolo per oltre 150KW di potenza, l’equivalente di cinquanta appartamenti. Sebbene il raffreddamento ad acqua sembri essere l’approccio dominante, anche grazie al basso costo di esercizio, ma vi sono eccezioni: sistemi di raffreddamento basati su liquidi che non conducono corrente elettrica come il glicole.
Una soluzione molto interessante è quella dei circuiti chiusi: un circuito a liquido chiuso all’interno del server che estrae il calore dalle componenti come CPU e memoria per poi dissiparla mediante scambiatori di calore all’ingresso del server per poter usare l’aria fredda del datacenter, si tratta di una soluzione che può rendere efficiente la gestione del calore all’interno del server anche se non può supportare il raffreddamento di processori di fascia alta.
Focus sull’intelligenza artificiale generativa
Se l’idraulica era in parte inattesa, l’altra grande protagonista dell’esibizione non poteva non essere l’intelligenza artificiale, e in particolare quella generativa. Tra le tecnologie in esposizione quella che mi ha sicuramente colpito è la macchina con gli acceleratori LPU (LLM Processing Unit) di Groq: degli acceleratori disegnati per poter eseguire l’inferenza di modelli LLM in modo efficiente (promettendo oltre 200 token/secondo in output per utente) anche grazie ad una rete di interconnessione basata su mesh in cui ogni sistema può essere collegato con quattro altri sistemi con cavi QSFP28 (quelli utilizzati per le connessioni a 100Gbps) per consentire scambio dati a bassa latenza all’interno di un cluster di acceleratori.
L’interesse del governo americano nella tecnologia sicuramente testimonia la potenziale rilevanza, e allo stesso tempo sottolinea come l’esecuzione di grandi modelli LLM come LLama 2 con 70 miliardi di parametri richieda grandi potenze di calcolo per poter realizzare un servizio vero e proprio e non semplicemente richiedere il completamento di un prompt al modello. Si tratta di un fattore da tenere presente nella realizzazione di servizi LLM che saranno sempre più spesso alla base di servizi IT nel prossimo futuro.
Datacenter: le sfide future riguardano i consumi energetici
Il PSN è stato messo a bando con un potenziale di crescita in dieci anni fino a 4,8 megawatt per ciascuno dei quattro datacenter, partendo da 1,1 megawatt. I trend di crescita nella potenza che si osservano lasciano pensare che si possa trattare di un limite significativo nel design del bando: con un design a 100KW per rack vedrebbe ipoteticamente solo 48 rack per datacenter (contro i 320 per un design a 15KW per rack tipico dei datacenter di qualche anno fa).
La possibilità di incrementare la densità energetica a parità di spazio consente di sfruttare al meglio gli spazi, soprattutto nella nostra nazione, ma questa evoluzione richiederà sempre più corrente elettrica, e impianti antincendio specifici che renderanno ancora più complessi da realizzare e manutenere i datacenter confermando, ancora una volta, che la politica di riduzione dei datacenter inadeguati della PA era nella direzione giusta. La disponibilità di ingenti quantità di potenza sarà invece una sfida per i fornitori di energia e il dimensionamento delle cabine elettriche sul territorio.
Conclusioni
Si potrebbe pensare che la potenza disponibile sia adeguata ai servizi per la PA, e questo è sicuramente vero se si considerano database e siti Web. Ma è difficile immaginare un futuro senza cluster che eseguono modelli LLM o sistemi di analisi di immagini come LLaVa, e molte altre novità che si succederanno nell’immediato futuro. E quando queste necessità si manifesteranno, le scelte di design dei datacenter saranno messe alla prova, e in ogni caso la necessità di raffreddamento a liquido non sarà più una necessità per centri di ricerca ma necessaria all’esecuzione di servizi essenziali legati all’intelligenza artificiale.