L’intelligenza artificiale sta rivoluzionando anche il settore dei datacenter e delle infrastrutture dedicate alla fornitura di servizi cloud: negli ultimi anni si sono, infatti, moltiplicati gli studi, le ricerche ma anche le applicazioni concrete di soluzioni basate sull’AI per la gestione, la manutenzione, la conduzione e l’ottimizzazione dei grandi quartier generali informatici.
Grazie anche alla combinazione di numerose tecnologie emergenti ed in grado di rivoluzionare l’approccio con sistemi particolarmente complessi come i centri di elaborazione dati, quali ad esempio l’Internet delle Cose (IOC) o l’Edge Computing, l’intelligenza artificiale può consentire di elaborare in tempo reale i dati di funzionamento dell’intera infrastruttura, individuare le principali aree di intervento e, in ultima battuta, anche attuare le azioni e contromisure più opportune e maggiormente adeguate alle singole problematiche.
È possibile, in ultima battuta, automatizzare l’intero processo di gestione di un centro di elaborazione dati, partendo dalla raccolta dei dati fondamentali, attraverso ad esempio l’utilizzo di una batteria di sensori iper-tecnologici, fino ad arrivare alla scoperta di nuove informazioni, derivanti dall’interpolazione degli input ricevuti nel corso del tempo, ma anche all’attuazione di misure di prevenzione, di correzione, di contenimento o di miglioramento dell’intero sistema.
La sperimentazione condotta dal Centro di ricerca ENEA
Particolarmente interessante sotto questo punto di vista è la sperimentazione avviata dal Centro di ricerca Enea sul supercalcolatore CRESCO6 e in generale sul proprio centro di elaborazione con l’obiettivo di ridurre i guasti ed aumentare l’efficienza attraverso l’utilizzo di tecniche e metodologie basate sull’intelligenza artificiale.
Nello specifico, con la metodologia ENEA vengono preliminarmente raccolti e posti in relazione tra loro i dati inerenti agli effettivi carichi di lavoro del data center e sul consumo energetico a diversi livelli (partendo da un singolo nodo fino ad arrivare gradualmente ad un server, un armadio rack e ad un’intera stanza).
Questa mole di informazioni viene successivamente elaborata attraverso tecniche di “apprendimento supervisionato” che permettono di definire modelli previsionali in grado di predire il comportamento dei dispositivi in base alla temperatura, alle operazioni svolte, mappando eventuali fenomeni di surriscaldamento.
“Siamo partiti dalla raccolta dei dati sui consumi energetici, termici e computazionali del data center HPC di ENEA per individuare, attraverso strumenti avanzati di intelligenza artificiale, eventuali sovraccarichi di lavoro, sprechi, malfunzionamenti o ‘falle’ nel sistema di raffreddamento. Un surriscaldamento frequente e, di conseguenza, un sistema di raffreddamento poco efficace, potrebbero causare, ad esempio, il degrado dell’hardware, una ridotta affidabilità dei server nonché un dispendioso consumo energetico” spiega, in particolare, Marta Chinnici, ricercatrice di matematica con dottorato in computer science presso il Laboratorio ENEA Infrastrutture per il calcolo scientifico e ad alte prestazioni. “Grazie a questa metodologia innovativa siamo in grado di estrarre informazioni utili dai dati reali di consumo dell’infrastruttura di calcolo e di elaborare strategie di gestione che non sarebbero ottenibili con le tecniche classiche di data analysis” sottolinea, inoltre, la ricercatrice.
Il progetto di ENEA, in particolare, si basa sulla considerazione che il tema della sostenibilità ambientale sia divenuto ormai di primaria importanza anche nel campo delle tecnologie informatiche, nel quale i consumi energetici crescono a un tasso annuo del 9%.
SI pensi, infatti, che la domanda di elettricità annua imputabile al settore IT ammontava nel 2020 a circa 200-250 TWh (l’1% della domanda globale di energia) contribuendo allo 0,3% delle emissioni annue di carbonio ma, secondo le stime dell’Agenzia internazionale dell’energia, è destinata ad aumentare in maniera vertiginosa tanto che nel 2025 i data center arriveranno a consumare circa un quinto dell’approvvigionamento mondiale.
Il ruolo dell’AI nella gestione operativa del datacenter
Una delle attività principali che possono essere delegate dell’intelligenza artificiale nell’ambito dei datacenter è rappresentata dalla gestione operativa finalizzata a garantire il corretto funzionamento delle attrezzature presenti all’interno di un centro di elaborazione dati.
In tale contesto, France Datacenet, all’interno del Libro bianco sull’intelligenza artificiale nei data center, ha proposto una scala di maturità che attraverso 6 livelli esprime il livello di integrazione ed utilizzo delle tecniche di AI all’interno dei processi di conduzione operativa di un CED.
In particolare, il modello elaborato dall’organizzazione d’Oltralpe può essere così sintetizzato:
Nessuna Assistenza | Assistenza Operativa | IA consultiva | IA consultiva e “attiva” | IA operante in autonomia | Autonomia completa |
---|---|---|---|---|---|
Assenza di una gestione centralizzata. Nessuna analisi dei dati fisici | Gestione centralizzata del Datacenter. Nessun utilizzo dell’IA | L’intelligenza artificiale del datacenter è in grado di offrire consigli per un migliore funzionamento. L’operatore umano rimane il decisore e agisce in prima persona in caso di necessità. | L’intelligenza artificiale del datacenter è in grado di offrire consigli per un migliore funzionamento. Il tecnico rimane il decisore e autorizza l’IA ad agire sulle varie apparecchiature. | L’intelligenza artificiale del data center sovraintende alla gestione delle operazioni e fornisce feedback al tecnico. | L’intelligenza artificiale del data center sovraintende alla gestione delle operazioni |
Fonte: Libro Bianco “L’intelligenza Artificiale nei data center” – France Datacenter
Secondo gli autori del documento, allo stato attuale la maggior parte dei datacenter più grandi si collocano al livello di maturità numero 3 nel quale l’AI è utilizzata come “advisor” ma non interviene direttamente nella risoluzione delle problematiche.
Anticipare i guasti grazie alla manutenzione predittiva
Un ulteriore elemento di vantaggio che l’intelligenza artificiale può apportare alla gestione di un datacenter è quello di riuscire ad anticipare i guasti delle apparecchiature o dei sistemi in base all’aggregazione e all’analisi dei dati.
In estrema sintesi, l’AI permette di superare i classici modelli di manutenzione correttiva (nel quale si interviene a seguito di un problema) e preventiva (che consiste, invece, nella sostituzione periodica, e spesso ridondante se non proprio inutile, di parti del sistema prima che arrivino alla fine del proprio ciclo vita) con quello della manutenzione “predittiva”, grazie alla quale è possibile intervenire in maniera mirata immediatamente prima che un evento anomalo possa verificarsi.
Gli algoritmi di intelligenza artificiale, infatti, sono in grado di valutare le condizioni ed il grado di stress delle singole apparecchiature attraverso un monitoraggio periodico o continuo finalizzato ad avere un quadro quanto più possibile esaustivo della situazione.
L’obiettivo di fondo è, come anticipato, quello di eseguire la manutenzione nel momento più conveniente, ossia prima che le prestazioni scendano al di sotto di una soglia predeterminata, evitando sia i tempi di fermo macchina tipici delle soluzioni “reattive” che le spese derivanti da un approccio estremamente prudenziale come quello preventivo.
Tale metodologia, invero, si basa su principi di algoritmi statistici, elemento di “machine learning” e “deep learning” che permettono di determinare quando le future attività di manutenzione saranno maggiormente redditizie, efficaci ed efficienti.
Fonte: Libro Bianco “L’intelligenza Artificiale nei data center” – France Datacenter
Fonte: Libro Bianco “L’intelligenza Artificiale nei data center” – France Datacenter
I principali vantaggi dell’AI nella gestione di un datacenter
Alla luce di quanto sopra evidenziato, è possibile ricavare il seguente quadro d’insieme relativo ai vantaggi che l’applicazione dell’intelligenza artificiale può apportare nel processo di manutenzione di un datacenter:
- Permette di rilevare i difetti in anticipo e di intervenire nel momento migliore, evitando interruzioni del servizio, degrado delle prestazioni o attività inutili effettuate a solo scopo preventivo;
- Consente di comprimere i tempi connessi ai processi decisionali e ad alla comunicazione interna. I sistemi di IA, infatti, fungono anche da fonte di informazioni condivisa, affidabile e sempre disponibile all’interno dell’azienda;
- Supporta gli operatori nella classificazione degli interventi, che possono essere gestiti secondo ordini di priorità derivanti dalla quantificazione oggettiva della gravità del guasto;
- Fornisce strumenti in grado di verificare l’impatto dell’attività di manutenzione subito dopo l’intervento. Grazie alla rilevazione costante dei parametri di funzionamento dei dispositivi, infatti, l’IA può misurare in tempo reale le prestazioni e comprendere se l’operatività del datacenter è tornata pienamente a regime a seguito dell’applicazione concreta delle contromisure.
- Garantisce un incremento del governo del datacenter grazie, tra l’altro, alla possibilità di implementare strategie di “asset management” a lungo termine, piani di approvvigionamento, politiche di business continuity e disaster recovery, etc.
In caso di evento grave, l’AI permette anche di agire con urgenza e minimizzare il “fattore umano” a tutela della disponibilità dei siti.
Il processo di addestramento
Un elemento di fondamentale importanza nell’integrazione di sistemi di intelligenza artificiale nella gestione di un datacenter è rappresentato certamente dal processo di addestramento basato su dati reali, che è finalizzato, in ultima battuta, a garantire la pertinenza e l’efficienza dei modelli sviluppati.
Attraverso tale attività è possibile mettere l’intelligenza artificiale nelle condizioni di comprendere e apprendere le caratteristiche, i modelli e le relazioni complesse che esistono in un datacenter e, conseguentemente, di prendere decisioni informate e di fare previsioni accurate quando si trova ad affrontare situazioni similari.
È necessario, inoltre, sottolineare come l’addestramento dell’IA con dati reali si articoli in un periodo temporale certamente non breve e debba affrontare una serie di problematiche, tra le quali degni di menzione sono le seguenti:
- L’effettiva disponibilità dei dati: per addestrare un modello di IA, è necessario disporre di un insieme di informazioni ampio e diversificato, rappresentativo della realtà. La raccolta di tali dati può richiedere molto tempo, soprattutto se gli eventi o i fenomeni studiati sono rari o stagionali. In un data center, per esempio, i dati meteorologici di agosto o gennaio hanno un impatto diretto sulla capacità di raffreddamento dell’edificio.
- Qualità dei dati: i dati reali sono spesso incompleti, imprecisi o non perfettamente rappresentativi dei fenomeni complessivi. Per tale motivazione, è necessario ripulirli, pre-elaborarli e completarli, prima di poterli utilizzare nel contesto dell’addestramento dell’intelligenza artificiale.
- Complessità dei modelli: i modelli di IA, e in particolare le reti neurali profonde, sono composti da un numero estremamente elevato (nell’ordine dei milioni) di parametri che devono essere calibrati per ridurre al minimo l’errore tra le previsioni elaborate dal modello e i dati reali. L’addestramento di tali modelli richiede notevoli risorse computazionali e può necessitare di un intervallo di tempo anche elevato, a seconda delle dimensioni e della complessità del fenomeno di riferimento oltre che della quantità di dati disponibili.
- Adattamento e convalida del modello: una volta identificato il modello, è necessario convalidarlo attraverso nuovi dati per garantirne le prestazioni e la capacità di generalizzazione. Questa fase può richiedere ulteriori aggiustamenti del modello e un nuovo addestramento, prolungando ulteriormente il processo nel suo insieme.
Sicurezza e salute dei lavoratori: il ruolo dell’IA nella gestione dei data center
Nel complesso ed articolato processo di gestione di un datacenter, un aspetto non certamente poco significativo, all’interno del quale l’intelligenza artificiale può fornire un contributo di primo piano, è quello della sicurezza e della salvaguardia della salute dei lavoratori.
Per quanto attiene, ad esempio, ai meccanismi di controllo accesso, i sistemi di IA sono in grado di effettuare il riconoscimento facciale biometrico attraverso un sistema integrato di telecamere 2D, 3D e infrarossi che permette di elaborare le immagini e identificare i soggetti in movimento da più angolazioni ed in tutte le condizioni di illuminazione.
Questa soluzione avrà anche l’effetto di limitare notevolmente i tentativi di furto di identità anche perché gli algoritmi di ‘intelligenza artificiale sono in grado di tenere conto delle modifiche al viso, al taglio di capelli, agli occhiali, all’utilizzo di casco, un capello, etc.
L’intelligenza artificiale applicata ai sistemi di videosorveglianza può consentire, in estrema sintesi, di:
- Monitorare e proteggere l’infrastruttura utilizzando i dati resi disponibili dai flussi inoltrati dai singoli dispositivi.
- Incrementare l’efficienza degli operatori per individuare gli indizi ed esplorare i risultati della ricerca in modo più rapido e automatizzato.
- Fornire informazioni utili e tempestive anche attraverso l’inoltro di bollettini ai responsabili della sicurezza in caso di presenze sospette.
- Garantire un accesso rapido e sicuro al personale autorizzato grazie alla capacità di rilevare e identificare più persone che si avvicinano contemporaneamente a un punto di accesso.
L’uso dell’IA per garantire la sicurezza fisica consente ad esempio:
- La verifica dei DPI (Dispositivi di Protezione Individuale) incrociando immagini o video di situazioni rischiose con situazioni reali per identificare e segnalare, o anche valutare un incidente a rischio e raccomandare le misure necessarie.
- Lo Screening termico anche tramite riconoscimento facciale con sistemi in grado di misurare la temperatura e disegnare un’immagine termica della persona. Tale utilizzo è naturalmente subordinato al rispetto delle leggi in materia di protezione dei dati personali, con particolare riferimento al GDPR.