Dall’astrofisica alla genomica e alla ricerca sul clima, i ricercatori di tutto il mondo raccolgono, analizzano, documentano e archiviano costantemente nuove informazioni alla ricerca di intuizioni rivoluzionarie. Ma a causa dei volumi sempre crescenti di dati, non è sempre facile estrarne il pieno potenziale. Una gestione intelligente dei dati è quindi necessaria per aprire la strada all’innovazione.
Per sostenere i ricercatori e promuovere la cooperazione internazionale nella ricerca e nella scienza, l’uso dei dati dovrebbe riflettere i principi “FAIR” (Findable, Accessible, Interoperable e Re-usable). Il concetto è stato sviluppato da Science Europe, una comunità di scienziati provenienti da tutta Europa che, con quasi 50 organizzazioni membri provenienti da 27 Paesi, si è posta l’obiettivo di promuovere la digitalizzazione nella ricerca e nella scienza e di creare strategie e pratiche comuni per la gestione dei dati.
Un’infrastruttura dati intelligente che promuove l’innovazione
I piani di gestione dei dati unificati (DMP, Data Management Plan) svolgono un ruolo centrale in questo senso perché consentono a centri di ricerca, finanziatori, revisori e singoli scienziati di condividere i loro preziosi dati e accelerare i progressi scientifici. Investire nella gestione dei dati è quindi fondamentale per gestire la mole di dati e sfruttarne appieno il potenziale.
In un’epoca in cui il volume dei dati cresce in maniera esponenziale, è chiaro che chi investe in un’infrastruttura dati intelligente non solo promuove il progresso, ma crea anche un vantaggio competitivo per le proprie istituzioni. È dunque importante sia una gestione efficace dei dati, ma anche il massimo delle prestazioni. Nulla paralizza il lavoro dei ricercatori più della lunga attesa per l’analisi dei dati di ricerca a causa di prestazioni insufficienti. Questo è uno dei motivi per cui molte istituzioni oggi combinano le attuali tecnologie Big Data e l’intelligenza artificiale (AI) con un potente calcolo ad alte prestazioni (HPC, High-Performance Computing).
Storage condiviso: prestazioni più elevate per la ricerca ad alta intensità di dati
Esperimenti, simulazioni, analisi: la ricerca scientifica genera enormi quantità di dati. I sistemi di storage distribuiti della serie OceanStor Pacific Scale-Out di Huawei sono in grado di soddisfare anche le più esigenti richieste di spazio di archiviazione e prestazioni. Le soluzioni di storage condiviso di Huawei sono altamente scalabili e consentono ai centri di ricerca di espandere senza problemi la propria capacità di storage in base all’aumento dei volumi di dati, senza interruzioni o cali di prestazioni nell’elaborazione degli stessi.
Oltre allo spazio di archiviazione flessibile, i sistemi si distinguono per la velocità di trasferimento. Ciò è dovuto, tra l’altro, al fatto che i dati sono distribuiti su più nodi e anche in più sedi. Questa architettura consente l’accesso parallelo ai dati, che porta a migliori prestazioni di lettura e scrittura, tempi di latenza inferiori e un’elaborazione più rapida per le attività di ricerca ad alta intensità di dati. Inoltre, sono disponibili numerose funzioni per gestire i dati in modo più efficiente, ad esempio per implementare politiche per il ciclo di vita dei dati o per il versioning, particolarmente importante per i centri di ricerca che devono soddisfare determinati requisiti di conformità.
Economico, affidabile, a prova di futuro
Le organizzazioni di ricerca, le università o gli istituti scientifici che utilizzano un ambiente di storage distribuito basato su OceanStor Pacific Scale-Out di Huawei possono ottenere i seguenti vantaggi:
- Convenienza: l’installazione dei sistemi di storage distribuiti è più conveniente rispetto alle soluzioni di archiviazione standard. I centri di ricerca possono utilizzare l’hardware tradizionale e scalare lo storage su richiesta, senza il bisogno di investire inizialmente in costosi array di storage.
- Backup e ripristino dei dati semplificato: i sistemi di storage distribuiti riducono al minimo il rischio di perdita di dati. Poiché i dati sono distribuiti su più nodi, i backup possono essere eseguiti in modo più rapido ed efficiente. In caso di guasto, i sistemi distribuiti garantiscono il ripristino dei dati da copie ridondanti.
- Accesso ai dati e collaborazione: grazie ai sistemi di storage condiviso, i ricercatori di aree diverse o addirittura di istituti e università diverse possono accedere ai dati e condividerli in modo efficiente. Questo favorisce la ricerca interdisciplinare e un vivace scambio di conoscenze.
- Elaborazione di grandi carichi di lavoro: le soluzioni Huawei sono ideali per i carichi di lavoro di Big Data e AI e la relativa elaborazione di grandi quantità di dati e modelli di accesso con un throughput elevato.
- A prova di futuro: gli ambienti di storage distribuito sono progettati per adattarsi facilmente alle nuove tecnologie e ai nuovi requisiti. Ciò consente ai centri di ricerca di rendere i propri dati e l’infrastruttura di storage a prova di futuro.
Il compagno perfetto per HPC, Big Data e AI
Lo Storage OceanStor Pacific Scale-Out di Huawei è particolarmente adatto ai carichi di lavoro ad alta intensità di dati. Il design ad altissima densità dei sistemi consente di archiviare ed elaborare grandi quantità di dati nel minor spazio possibile. Ciò consente agli istituti di ricerca di risparmiare molto spazio nel data center o nella sala server, riducendo in modo significativo il costo totale di proprietà (TCO). Quando si elaborano carichi di lavoro ad alta intensità di calcolo e di dati, ovvero carichi di lavoro ibridi, il file system OceanFS integrato dà il meglio di sé, supportando ampie larghezze di banda e veloci operazioni di input/output al secondo (IOPS).
La serie di storage scale-out OceanStor di Huawei si basa su architetture e tecnologie innovative e all’avanguardia che accompagnano in modo affidabile la ricerca e la scienza nell’era degli yottabyte. Le soluzioni sono progettate per un’ampia gamma di applicazioni, dalla virtualizzazione e dai pool di risorse cloud al backup e all’archiviazione dati, all’analisi dei Big Data e all’High Performance Data Analytics (HPDA). Questo garantisce un’infrastruttura dati solida e sicura che offre carichi di lavoro ibridi, una gestione efficiente dei dati e una maggiore resilienza degli stessi.
Articolo prodotto in collaborazione con Huawei