L’utilizzo dell’intelligenza artificiale all’interno dei datacenter rappresenta ormai un fenomeno consolidato ed in continua crescita, grazie soprattutto alla frenetica evoluzione della tecnologia ed agli innumerevoli vantaggi che si stanno sperimentando quotidianamente nei datacenter di tutto il mondo.
Secondo uno studio condotto da Gartner, in particolare, a partire dal 2025 il 50% dei CED “industriali” sfrutterà, per governare i propri processi funzionali, robot in grado di utilizzare algoritmi di intelligenza artificiale, che condurranno ad un incremento di circa il 30% nell’efficienza organizzativa.
L’introduzione del Machine Learning nei CED delle Big Tech
Il parterre delle grandi multinazionali che nel tempo hanno avviato un percorso di introduzione di tecniche di Machine Learning all’interno dei propri CED si fa sempre più largo e prestigioso.
Meta
Meta, ad esempio, ha recentemente annunciato di aver intrapreso l’implementazione di CED di nuova generazione basati nativamente sull’intelligenza artificiale che comporteranno, secondo le stime dei progettisti, risparmi ingenti (circa il 31%) rispetto alle architetture tradizionali.
Alphabet
Alphabet, ossia l’azienda “madre” di Google, sta spingendo in maniera decisamente forte su l’automatizzazione dei propri datacenter, sperimentando vantaggi a volte insperati ed imprevisti. Particolarmente interessante è il caso di un CED del Midwest presso il quale il sistema di intelligenza artificiale ha modificato le impostazioni dell’impianto di raffreddamento durante il passaggio di un tornado in una maniera che i tecnici avevano inizialmente valutato come “controintuitiva” se non proprio priva di senso. Da analisi successive, invece, è emerso come le variazioni apportate dall’AI avevano garantito un importante risparmio in termini di energia utilizzata perché algoritmo era stato in grado di analizzare gli effetti della maggiore pressione generata dalla tromba d’aria sulla struttura che ospita il CED.
Microsoft
Non poteva mancare all’appello degli innovatori Microsoft che sta implementando un progetto in grado di rendere più efficiente la gestione degli incidenti grazie al monitoraggio dei dati di funzionamento ed alla produzione di allarmi “precoci”, in grado di anticipare le attività di risposta all’emergenza.
Nel contesto appena illustrato, proviamo a definire alcuni tra i principali ambiti di applicazione dell’AI all’interno dei data center.
Migliore sicurezza fisica nei data center
Un elemento di fondamentale importanza al fine di garantire l’integrità, la disponibilità e la riservatezza dei dati custoditi e gestiti in un datacenter è certamente rappresentato dalla “sicurezza fisica”, ossia da quell’insieme di misure che disciplinano, regolano e controllano l’accesso agli edifici, alla strumentazione ed alle informazioni, consentendolo, inibendolo o limitandolo in base a specifici parametri autorizzativi.
Tale aspetto comporta tradizionalmente notevoli spese perché si basa essenzialmente sulla presenza di personale di vigilanza preposto a rilevare e rispondere alle violazioni del perimetro fisico.
L’intelligenza artificiale può aiutare in questo senso analizzando dati che possono aiutare a rilevare intrusioni fisiche, monitorando, ad esempio, i flussi video in tempo reale, identificando le persone grazie al riconoscimento facciale ma anche “studiando” i flussi di ingresso uscita sia a livello generale che individuale.
Ad esempio, un tecnico che, pur essendo sulla carta autorizzata, effettui un ingresso in un orario del tutto inusuale potrebbe generare un allarme così come l’incremento anomalo di errori nella digitazione dei codici di accesso potrebbe essere interpretato come “sospetto” dagli algoritmi di AI.
Gestione energetica del data center
La nuova rivoluzione digitale sta riproponendo, sotto alcuni aspetti, problemi e criticità simili a quelle già sperimentate più di un secolo fa con la nascita delle grandi fabbriche e la proliferazione dell’industria su larga scala.
Anche oggi, infatti, un nodo cruciale è rappresentato dagli impatti ambientali delle nuove tecnologie che, seppur in maniera meno “evidente” rispetto al passato, utilizzano una quantità spesso esagerata di risorse rischiando di compromettere equilibri già fortemente minacciati da anni di incuria e sottovalutazione di tali aspetti.
È necessario, ad esempio, considerare come un centro di elaborazione dati, che rappresenta la contropartita “fisica” dei sistemi digitali spesso visti (erroneamente) come “virtuali” o “immateriali”, per poter correttamente funzionare e, soprattutto, per fornire risposte in tempi rapidi a tutti gli utilizzatori, umani o tecnologici, consuma per l’alimentazione ed il raffreddamento dei propri sistemi un quantitativo decisamente elevato di energia, che sta esponenzialmente crescendo nel corso degli anni.
In tale contesto, una delle sfide più importanti è rappresentata dalla gestione dell’approvvigionamento energetico dei datacenter, che include le scelte in merito alla fonte di energia di utilizzare (solare, eolico, elettrico, etc) ma anche delicate attività di pianificazione e previsione di particolari condizioni climatiche in grado di sottoporre i sistemi ad un elevato grado di stress. Si pensi, ad esempio, alle sempre più frequenti ondate di caldo che richiedono di portare al limite il funzionamento dei meccanismi di raffreddamento.
L’intelligenza artificiale, in tale contesto, può essere utilizzata, tra le altre cose, per
- il monitoraggio in tempo reale delle reali esigenze di energia con l’obiettivo ridurre il consumo senza generare impatti sull’operatività del CED.
- garantire la distribuzione dei carichi di lavori sui differenti server così da raggiungere un maggiore livello di produttività, aumentare l’efficienza e, conseguentemente, tagliare i costi connessi all’energia.
- identificare e risolvere problematiche della rete che portano a dispersioni di energia, creando diseconomie ma anche generando rischi di malfunzionamenti dell’intera architettura hardware/software.
- regolare i meccanismi di riscaldamento e raffreddamento, così come descritto in precedenza nel caso del CED di Google che è stato in grado di autoregolare la propria temperatura in presenza di un tornado, sfruttando gli effetti dell’alta pressione portata dalla tromba d’aria.
Capacity management
Un datacenter può essere considerato come un “quartiere generale informatico” finalizzato a fornire potenza di calcolo, capacità di memorizzazione, strumenti per interloquire con i cittadini ma anche e soprattutto architetture in grado di garantire stabilità, sicurezza, resilienza e resistenza rispetto a vulnerabilità, minacce, imprevisti o semplici incidenti.
In estrema sintesi, un CED deve essere immaginato come una gigantesca infrastruttura virtuale capace di “adattarsi” e “trasformarsi” in base alle esigenze degli enti centrali e periferici e, naturalmente, a quelle dei cittadini.
Deve essere, in altri termini, “scalabile” e saper reagire a tutte le circostanze, comprese quelle eccezionali che richiedono di rispondere in pochi secondi a milioni di richieste simultanee ma soprattutto deve essere progettata, pensata, implementata, collaudata e testata in maniera tale che possa adattarsi alle condizioni più sfavorevoli e sappia trasformarsi in base agli eventi quasi come una spugna che aumenta il proprio volume quando è inondata dall’acqua e si restringe quando è “scarica”.
In questo modo può essere descritta una “tecnologia” fondamentale nel variegato mondo del Cloud che è generalmente chiamata come “Hyperscale” e si riferisce alla capacità di una vasta rete di computer (decine di migliaia e più) di rispondere automaticamente alle mutevoli richieste degli utenti e di assegnare “on demand” carichi di lavoro alle risorse di elaborazione, archiviazione e rete.
Per comprendere ancora meglio, pensiamo a quello che è considerato un caso di scuola: nel momento in cui è andata in onda la “premiere” dell’ottava stagione de “Il Trono di Spade” addirittura 17,4 milioni di persone, di cui oltre 5 milioni in streaming, si sono sintonizzate sui canali della HBO senza sperimentare disagi o ritardi nella visualizzazione.
Tale straordinario e storico risultato è stato possibile grazie ad una gigantesca rete di server e datacenter che virtualmente accresceva le proprie risorse in tempo reale, adeguandosi alle richieste degli utenti, per poi contrarsi nuovamente, come una sorta di fisarmonica informatica, una volta che il numero di connessioni era diminuito fino a ritornare alla normalità.
Si tratta, come è di tutta evidenza, di una vera e propria rivoluzione (l’ennesima in questa era iper-tecnologica), che sta nuovamente ridisegnando i confini non solo virtuali dei CED, delle reti informatiche, delle architetture digitali.
Incident management
Un datacenter deve essere sempre operativo, nel senso che deve garantire la disponibilità dei servizi erogati praticamente senza soluzione di continuità. I cosiddetti “downtime”, ossia i tempi nei quali le macchine non rispondono alle richieste degli utenti, rappresentano un danno di elevato valore che può concretizzarsi dal punto di vista economico, dell’immagine ma può comportare, nei casi delicati, anche problematiche di natura amministrativa, legale fino ad arrivare a mettere in pericolo la salute dei soggetti interessati nei casi di applicazioni di telemedicina o sanità digitale.
Secondo un interessante studio condotto dall’ITIC nel 2021, il 44% dei partecipanti (su 1.200 organizzazioni globali) ha affermato che i costi orari dei downtime vanno da 1 milione di dollari a oltre 5 milioni di dollari mentre il 91% delle organizzazioni ha aggiunto che anche un’ora di inattività che ha avuto un impatto su hardware e applicazioni server mission-critical ha comportato una perdita media di circa 300.000 dollari.
In tale contesto, sempre più organizzazioni stanno introducendo nelle proprie strategie di “Incident Management” algoritmi e soluzioni basati sull’intelligenza artificiale e sul machine learning (AI/ML) per identificare, diagnosticare e risolvere i problemi e impedire in modo proattivo che si ripetano.
La gestione proattiva degli incidenti implica essenzialmente lo sfruttamento delle informazioni sui modelli di dati con l’obiettivo di comprendere ed analizzare gli eventi ancor prima che si verifichino, così da poter adottare misure correttive ed evitare, in ultima analisi, che si verifichino.
In tal modo è possibile ridurre drasticamente i tempi di inattività aziendale rispetto alla classica gestione “reattiva” degli incidenti, che prevede la risoluzione dei problemi dopo che si sono verificati, comportando spesso tempi di inattività aziendale e perdite di ricavi significativamente più elevati.
Hardware per data center compatibile con l’intelligenza artificiale
La nuova frontiera dei data center sarà certamente quella di dotarsi di hardware progettato ed implementato per sfruttare a pieno le potenzialità dell’intelligenza artificiale.
Secondo uno studio condotto da Tirias Research, entro il 2028 saranno posti in commercio server con una potenza 4 volte superiore rispetto a quella attualmente garantita dagli hardware in commercio ma in grado di gestire carichi computazionali fino a 50 volte superiori a quelli che è possibile raggiungere allo stato attuale nei datacenter di grandi dimensioni.
I nuovi server, in sintesi, opereranno in una maniera da tale da enfatizzare ed ottimizzare gli effetti prodotti dall’intelligenza artificiale che diventerà sempre più il motore trainante dell’intera organizzazione di un datacenter.
Rientrano in tale ambito anche i robot di nuova generazione in grado di effettuare attività di monitoraggio, manutenzione e conduzione operativa, affiancando (ma progressivamente sostituendo) i sistemisti non solo nei compiti routinari, ripetitivi e meccanici ma anche in quei campi nei quali le decisioni devono essere basate sull’analisi di una miriade di variabili che cambiano in tempo reale.
I nuovi hardware, ad esempio, saranno in grado di sfruttare i vantaggi connessi alle cosiddette “piccole modifiche frequenti” che non sono attuabili o non sono economicamente sostenibili nei casi in cui le operazioni sono governate da operatori umani o da dispositivi digitali tradizionali.
Si pensi ad esempio al risparmio annuo derivante dall’adeguamento continuo della temperatura dei sistemi di raffreddamento rispetto all’ambiente esterno: mentre un impianto gestito attraverso tecniche standard non è in grado di apprezzare variazioni sotto il grado centigrado né tantomeno può “prevedere” l’andamento della temperatura in un determinato intervallo di tempo, un sistema basato sull’intelligenza artificiale, compatibile con l’”Internet delle Cose”, può colloquiare con le stazioni meteo, effettuare incroci, elaborazioni ed inferenze che possono condurre ad una rivisitazione continua (anche più volte nel corso di un’ora) dei parametri di funzionamento in grado di condurre ad ingenti risparmi in un esteso intervallo di tempo.