La PA italiana non può fare a meno di un adeguato piano di disaster recovery. È infatti uno strumento indispensabile per garantire la continuità operativa e la sicurezza dei dati in caso di eventi imprevisti, come disastri naturali, attacchi informatici o guasti tecnici, dunque per minimizzare le interruzioni dei servizi pubblici critici, che possono avere un impatto diretto sulla vita dei cittadini e sull’efficienza governativa.
Nell’adozione delle giuste misure di tutela del dato e di implementazione del piano di disaster recovery risulta particolarmente utile un approccio basato su servizi distribuiti: è importante, in questo contesto, scegliere un fornitore del servizio affidabile e trasparente.
Disaster recovery, perché è importante per la PA
In primis bisogna sottolineare come uno degli aspetti più importanti da tutelare nel caso la PA sia vittima di un incidente di sicurezza informatica è la continuità operativa. Le pubbliche amministrazioni erogano servizi di primaria importanza per i cittadini e per il funzionamento stesso del sistema Paese, per cui un’interruzione nella fornitura può comportare gravi conseguenze. Un piano di disaster recovery permette di reagire con prontezza: “L’importanza del disaster recovery è fondamentale per qualsiasi attività che necessiti di continuità di servizio, ma è tanto più importante nelle PA, dove il servizio è fondamentale proprio nei momenti in cui si verificano, appunto, dei disastri – spiega Stefano Baldi, VP R&D in Cubbit -. Si pensi a cosa accadrebbe ad un ente che perdesse il proprio sistema GIS, proprio nel momento in cui dovesse coordinare gli sforzi per gestire l’emergenza durante un’alluvione. È indispensabile quindi che i dati siano replicati a distanza, in modo che una loro copia possa sopravvivere immune dagli incidenti”.
Una tutela letteralmente fisica, per mettere al riparo il patrimonio informativo da frane, alluvioni o incendi, che possono distruggere o rendere a lungo indisponibile la loro copia locale. A ciò si aggiunge la protezione sul piano virtuale: “Il dato deve essere messo in salvo dalla possibilità di essere cancellato, compromesso o alterato in modo volontario o meno, dai software che riescono ad averne accesso”, prosegue Baldi.
In questo ambito, il ransomware oggi è la minaccia principale, anche per la PA: “Può paralizzare l’attività di un intero ente, danneggiandolo irrimediabilmente, spingendo gli amministratori al pagamento di un riscatto nella speranza di ottenere la chiave in grado di decifrarli nuovamente”. I dati coinvolti, nel caso di attacco alla PA, sono di alto valore pubblico, come dati territoriali dettagliati e archivi storici o di estrema riservatezza, come quelli anagrafici e sanitari. Per mettersi al riparo, come suggerisce Baldi, è importante “nel piano di disaster recovery prevedere che la copia remota dei dati, sia anche immutabile, non alterabile cioè nemmeno dagli amministratori di sistema, in modo che se un ransomware dovesse un giorno guadagnare accesso a quelle copie, non potrà in alcun modo criptarle e renderle illeggibili”.
Come implementare un piano di disaster recovery per la PA
La scelta di un’adeguata infrastruttura è la priorità per poter implementare adeguatamente il piano di disaster recovery. Il cloud è la prima scelta, in quanto “buona parte della sicurezza sui dati è implementata, senza oneri aggiuntivi, da tutti i cloud provider. L’evoluzione delle normative europee in materia inoltre (GDPR, NIS2) ha contribuito a uniformare i livelli di servizio, definendo standard e buone pratiche che devono essere rispettate”, precisa Baldi.
Il consiglio dell’esperto però è quello di non affidarsi a un solo player: “è un rischio a lungo termine, soprattutto rapportato alla durata media di vita dei dati gestiti dalle PA, tendenzialmente più lunghi di quelli di mercato: le PA devono essere, quindi, pronte a poter cambiare fornitore più volte nel corso del tempo, e devono essere pronte a pagare anche i costi che questa migrazione comporterà”. Utile, inoltre, che il provider sia europeo, “considerando l’attuale instabilità dello scenario geo-politico mondiale” e l’importanza della compliance alle norme europee.
Una volta scelta l’infrastruttura, le best practice sono:
- replicare i dati in due diversi data center e disporre di un terzo sito dedicato al backup: “I due datacenter garantiranno la continuità del servizio in caso di disastro, quello di backup sarà utile a recuperare i dati nel caso entrambi i datacenter principali non siano disponibili”, spiega Baldi;
- identificazione di più cloud, preferibilmente europei;
- valutazione dei costi di egress;
- estensione dei servizi in modalità multicloud o multisito.
Le tecnologie necessarie per far ciò “sono quelle ormai comunemente usate in ambienti cloud: utilizzo estensivo di microservizi, in modalità container (docker o analoghi), orchestratori come kubernetes, protocolli standard e sicuri di scambio dati, largo utilizzo di encryption e frammentazione – aggiunge Baldi -. Fortunatamente, questo livello di complessità è nascosto dalla piattaforma cloud che fornisce il servizio”.
Disaster recovery: i consigli di Cubbit
Proprio per nascondere la complessità, i provider possono far ricorso a Cubbit: “Cubbit è un cloud enabler, quindi ogni infrastruttura, come anche i datacenter on premise, se ne può avvalere per implementare le tecnologie necessarie al disaster recovery. Consente inoltre di distribuire i servizi su più cloud provider, rendendo il dato estremamente resiliente (fino a 15 nove di durabilità) e consente al tempo stesso migrazioni a caldo, anche per considerevoli moli di dati”, racconta Baldi.
Cubbit, in compliance alle norme di settore e in particolare al GDPR, offre “by design un altissimo livello di protezione dei dati: questi vengono cifrati, frammentati e poi resi ridondanti con un erasure coding ottimizzato prima di essere sparsi su tutti i datacenter coinvolti – sottolinea Baldi -. Un criminale informatico troverebbe difficoltà nel recuperare i frammenti da più datacenter, identificare quelli provenienti dal medesimo file, ricostruirli nell’ordine per poi decifrarli. La chiave di decifratura, inoltre, non è custodita da Cubbit, ma solo dall’utente finale che non è identificabile a ritroso”, aggiungendo quindi un ulteriore livello di difficoltà. In caso di ransomware, “per raggiungere i dati, colpendo direttamente l’utente che detiene le chiavi, non potrebbe in alcun modo andare a sovrascrivere i frammenti precedentemente caricati, ma solo aggiungerne una nuova versione. I precedenti frammenti saranno sempre disponibili al recupero”.
Relativamente al disaster recovery, come anticipato la priorità è avere a disposizione i backup “così da poter ricostituire l’intera infrastruttura a seguito di disastro o di ransomware. Il recupero da disastro comporta sempre tempi dilatati, difficilmente comprimibili, legati al dover rendere disponibile ex novo una nuova infrastruttura in cui applicare il restore dei dati – sottolinea Baldi -. Cubbit consente di custodire i dati contemporaneamente in più siti, evitando l’utilizzo di repliche che renderebbe rapidamente proibitivi i costi di quest’approccio”. L’infrastruttura di Cubbit “può sopravvivere alla caduta di più siti contemporaneamente, mantenendo la continuità del servizio e azzerando i tempi di recovery”.
Considerando ciò, per le PA “il consiglio è quello di affidarsi a servizi distribuiti così da evitare in caso di disastro di dovere attendere, ad esempio, il ripristino di server virtuali per poter ricominciare ad erogare un certo servizio – conclude Baldi -. È evidente che la fiducia nei confronti di chi gestisce l’infrastruttura alla base di queste soluzioni dovrà essere elevata. Fondamentale quindi che le politiche e le metodologie di gestione del ciclo di vita del dato siano estremamente trasparenti.
Per approfondire il tema, in questo video su Youtube gli esperti IT di Cubbit simulano un attacco ransomware dal vivo e mostrano, step by step, la successiva procedura di recovery”.
Contributo editoriale sviluppato in collaborazione con Cubbit