sanità digitale

Medicina sempre più personalizzata grazie a dati e AI: l’esperienza del Gemelli



Indirizzo copiato

Come dimostra l’esperienza del Policlinico Gemelli, lo sviluppo di modelli predittivi e applicazioni AI nel settore sanitario offre notevoli opportunità per la ricerca scientifica e le collaborazioni industriali, accelerando la ricerca in oncologia e medicina personalizzata. Così questi strumenti migliorano l’erogazione delle cure e l’allocazione delle risorse

Pubblicato il 14 mag 2024

Giovanni Arcuri

Direttore – Direzione Tecnica, Ict e Innovazione Tecnologie Sanitarie – Fondazione Policlinico Universitario A. Gemelli IRCCS

Antonio Marchetti

Direzione Tecnica, ICT ed Innovazione Tecnologie Sanitarie – Fondazione Policlinico Universitario A. Gemelli



Smart Pills, opportunità e limiti dell'uso dei sensori nei trattamenti sanitari
Smart Pills, pro e contro dell'uso dei sensori nei trattamenti sanitari

Lo sviluppo di modelli predittivi e di applicazioni AI rappresenta una straordinaria opportunità per un’istituzione sanitaria in termini di ricerca scientifica e sviluppo di collaborazioni industriali. Oltre al potenziale di cambiamento nei processi di erogazione delle cure, infatti, questi strumenti si stanno dimostrando straordinariamente efficaci nell’accelerare la ricerca scientifica, specie in campo oncologico e di medicina personalizzata, e nello sviluppo di modelli predittivi che aiutano l’organizzazione a ritagliare processi di cura più tempestivi ed efficaci, aiutando i processi di allocazione delle risorse. È anche un settore in cui la ricerca scientifica, svolta in collaborazione con le realtà industriali, trova un terreno di collaborazione ampio e proficuo, offrendo alle strutture sanitarie la possibilità di accesso a finanziamenti che sostengono questa attività.

Il presupposto necessario per poter svolgere queste attività è la capacità di rendere i dati un patrimonio utile ad estrarre conoscenza, con modelli di gestione ad hoc che rivoluzionano quelli tradizionali. Memorizzare i dati senza perdere informazione, correlarli in modo corretto, creare ontologie evolute, utilizzare dati provenienti da sistemi non operazionali, sviluppare la capacità di trattare dati non strutturati e garantire processi di anonimizzazione sempre più complessi sono alcuni degli aspetti più rilevanti e rappresentativi di questo processo.

Illustriamo allora l’esperienza in questo ambito del Policlinico Gemelli che, grazie alla costruzione di una architettura dedicata, partita molti anni fa, oggi dispone di un sistema complesso che è alla base della ricerca che la struttura svolge nel settore AI.

Data Warehousing, il Gemelli pioniere nelle tecnologie informative avanzate

Il Policlinico Universitario Agostino Gemelli, riconosciuto per la sua eccellenza nel campo della sanità e della ricerca medica, è stato anche pioniere nell’adozione di tecnologie informative avanzate. Fin dal lontano 1990, la direzione del Policlinico ha intrapreso un percorso innovativo, istituendo un servizio di Data Warehousing con l’obiettivo di ottimizzare la gestione delle informazioni e la formazione informatica degli utenti.

In un’epoca in cui l’informatica “individuale” muoveva i primi passi e i personal computer iniziavano a diffondersi, il Policlinico Gemelli ha dimostrato una visione lungimirante. Nonostante le limitazioni delle tecnologie dell’epoca, che oggi sembrerebbero superabili con un semplice smartphone, il team IT del Policlinico è riuscito a sviluppare un Data Warehouse (DW) estremamente flessibile e capace di adattarsi ai rapidi cambiamenti tecnologici.

Il lavoro meticoloso nel campo dell’Extract, Transform, Load (ETL) ha garantito un’alta qualità delle informazioni, che, convertite su supporti più moderni, restano ancora oggi a disposizione del personale e dei ricercatori. Questo prezioso patrimonio informativo è cresciuto nel tempo, arricchendo continuamente la base di conoscenza dell’ente.

Inizialmente sottovalutato, il potenziale del Datawarehouse è stato pienamente riconosciuto con l’avvento delle riforme sanitarie dei Decreti Legislativi 502/92 e 517/93. Questo strumento si è rivelato fondamentale per sviluppare un controllo di gestione accurato e reattivo alle esigenze del settore sanitario, in un periodo segnato da profonde trasformazioni.

Passaggio al Data Lake: i vantaggi della piattaforma

Con l’evoluzione tecnologica e l’aumento esponenziale dei dati, il Policlinico Gemelli ha intrapreso ormai da qualche anno l’implementazione del più flessibile e scalabile Data Lake. Questa transizione ha permesso di gestire un volume di dati molto più ampio, proveniente da fonti eterogenee, in un formato grezzo. Con l’implementazione del Data Lake, il Policlinico ha potuto sfruttare i vantaggi di una piattaforma che facilita l’accesso e l’analisi dei dati in modo più dinamico. I ricercatori e il personale medico , supportati dai data scientist, possono esplorare e analizzare un’ampia gamma di dati in near real time, dai risultati dei test di laboratorio ai dati demografici dei pazienti, le lettere di dimissione, referti testuali fino alle immagini diagnostiche e molto altro.

Questa capacità di analizzare dati eterogenei in maniera integrata ha aperto nuove possibilità nel campo della ricerca clinica e dell’analisi operativa. Ad esempio, l’integrazione di algoritmi di intelligenza artificiale e machine learning nel Data Lake ha permesso lo sviluppo di modelli predittivi per diagnosi più accurate e per l’ottimizzazione dei percorsi di cura. Inoltre, l’analisi avanzata dei dati ha supportato la gestione ospedaliera nel monitoraggio delle performance, nella gestione delle risorse e nell’ottimizzazione dei processi.

Lake House: combinare il meglio di Data Warehouse e Data Lake

Il cambio di paradigma ha non solo migliorato la gestione e l’analisi dei dati ma ha anche aperto la strada a nuove frontiere nella ricerca e nell’assistenza sanitaria, dimostrando il potenziale dell’integrazione tra medicina e tecnologia digitale avanzata.

Il Policlinico Universitario Agostino Gemelli, noto per il suo impegno verso l’innovazione, ha recentemente intrapreso un significativo passo avanti nell’evoluzione della gestione dei dati sanitari ed ha iniziato ad implementare il modello Lake House. Questa decisione strategica mira a migliorare ulteriormente la ricerca medica e l’assistenza ai pazienti, sfruttando le più moderne tecnologie informatiche.

Il Lake House unisce la flessibilità del Data Lake alla struttura del Data Warehouse, offrendo una gestione dati ottimale e supportando analisi complesse. Questa infrastruttura avanzata permette di integrare efficacemente volumi crescenti di dati, dai risultati clinici alle informazioni amministrative, facilitando ricerche multidisciplinari e l’adozione di modelli predittivi grazie all’intelligenza artificiale e al machine learning.

In estrema sintesi, un Data Lake è un grande repository di dati che può contenere grandi volumi di dati grezzi in vari formati fino a quando non sono necessari per l’uso. È altamente scalabile e flessibile, permettendo di immagazzinare dati non strutturati come testo e immagini, oltre a dati strutturati. Un Lake House combina le caratteristiche di un Data Lake con quelle di un Data Warehouse, offrendo sia la capacità di gestire grandi volumi di dati non strutturati, sia di supportare operazioni analitiche complesse su dati strutturati attraverso schemi definiti, governance dei dati e qualità dei dati. In poche parole, il Lake House cerca di offrire il meglio di entrambi i mondi: la scalabilità e la flessibilità del Data Lake con la gestione strutturata e le capacità analitiche di un Data Warehouse.

A livello tecnico, il Lake House mantiene un’architettura scalabile e flessibile tipica dei Data Lakes, che consente di immagazzinare dati in vari formati, sia strutturati che non (testi, log, immagini, ecc.), senza necessità di schemi prefissati. Tuttavia, a differenza dei tradizionali Data Lakes, il Lake House integra layer di gestione dei metadati e di governance, oltre a meccanismi per la definizione di schemi, che lo rendono più organizzato e facilmente interrogabile, simile a un DW. Uno dei principali vantaggi tecnici del Lake House è la sua capacità di supportare diverse modalità di elaborazione e analisi dei dati: batch, streaming, machine learning, e query SQL, tutto all’interno dello stesso ecosistema. Ciò riduce la necessità di spostare dati tra sistemi separati, minimizzando la latenza e aumentando l’efficienza.

Prendiamo come esempio uno studio condotto per valutare l’efficacia di un nuovo trattamento. La gestione di dati così eterogenei , che spaziano da questionari testuali a dati strutturati sulle condizioni mediche, passando per risultati di laboratorio e feedback in tempo reale da dispositivi medici, avrebbe rappresentato una sfida notevole.

Il Lake House, tuttavia, cambia le regole del gioco. Questo modello permette di archiviare e processare tutti i tipi di dati nello stesso ecosistema, preservandone l’integrità e facilitando analisi avanzate. Algoritmi di elaborazione del linguaggio naturale (NLP) esaminano i questionari, estraendo informazioni preziose, mentre strumenti analitici lavorano in parallelo sui dati strutturati, identificando pattern e correlazioni che potrebbero sfuggire all’analisi umana.

L’introduzione del concetto di Lake House al Policlinico Gemelli segna un momento di svolta sia in termini tecnologici che di qualità nella gestione degli studi clinici. Questa evoluzione non rappresenta semplicemente l’adozione di una nuova tecnologia ed organizzazione del dato, ma segna un avanzamento sostanziale nell’approccio alla ricerca medica e alla cura del paziente. Con il Lake House, il Policlinico Gemelli pone le fondamenta per un futuro in cui la medicina è sempre più personalizzata, supportata da un’infrastruttura che integra efficacemente dati strutturati e non strutturati, consentendo analisi complesse e multidimensionali.

Dal Lake House nuove possibilità per la ricerca clinica

Questa infrastruttura avanzata apre nuove possibilità per la ricerca clinica, consentendo ai data scientist e ai medici di esplorare vasti set di dati con una flessibilità senza precedenti. L’abilità di correlare rapidamente informazioni eterogenee – dai risultati degli esami clinici alle note mediche, etc. – permette di identificare modelli e correlazioni che prima erano difficilmente individuabili. Ciò facilita la scoperta di nuovi trattamenti, la comprensione più profonda delle patologie e la possibilità di sviluppare terapie altamente personalizzate.

Attualmente vengono eseguite in automatico tutte le notti oltre 250 procedure di ETL che importano, organizzano e verificano dati provenienti dagli applicativi operazionali integrandoli se necessario da fonti esterne. Vengono gestiti oltre 10TB di datamart costantemente aggiornati ed organizzati in 124 Librerie, 13.895 Dataset . Ad oggi il DWH del Policlinico Gemelli ha sviluppato oltre 1500 procedure per 1,8MLN di righe di codice.

Il ruolo delle tecnologie SAS nel sistema di gestione dei dati del Policlinico Gemelli

Nell’ambito di questo avanzamento tecnologico, il Policlinico Universitario Agostino Gemelli ha scelto di adottare le soluzioni avanzate offerte da SAS e SAS Viya per l’implementazione dell’intero impianto di Data Lake, Data Warehouse e Lake House. Questa scelta è stata guidata dalla necessità di disporre di una piattaforma analitica integrata che fosse in grado di gestire, con efficienza e sicurezza, l’enorme quantità di dati generata dalle attività ospedaliere quotidiane e dalla ricerca medica.

Grazie all’utilizzo di SAS e SAS Viya, è stato possibile realizzare un ambiente altamente scalabile e flessibile, caratterizzato da un’elevata capacità di gestione dei dati e da prestazioni analitiche di primo livello. Queste tecnologie hanno consentito al Policlinico Gemelli di sfruttare al meglio le potenzialità del modello Lake House, integrando la vasta gamma di dati sanitari in un unico ecosistema, ottimizzando così le operazioni di analisi e la generazione di insight preziosi per la ricerca e l’assistenza ai pazienti.

Monitoraggio e manutenzione dei processi ETL: un impegno verso l’eccellenza dei dati

Nell’ambito dell’impegno verso l’efficienza operativa e l’elevata qualità dei dati, è stato intensificato il focus sul monitoraggio dei processi ETL (Extract, Transform, Load), che sono la base di tutti i processi successivi. Con l’aumento esponenziale dei dati, sia strutturati che non strutturati, da gestire, la complessità dei processi ETL si è notevolmente amplificata. Per affrontare questa sfida, è stato introdotto un sistema di responsabilità personalizzato: ogni specialista del team è designato come “owner” di specifiche procedure ETL, garantendo così un’elevata competenza e responsabilità diretta nella gestione e nel monitoraggio di questi processi cruciali. Il monitoraggio attento e costante dei processi ETL diventa fondamentale per garantire l’integrità e l’affidabilità dei dati; permette di rilevare e risolvere prontamente qualsiasi anomalia o inefficienza, assicurando così che i dati siano sempre precisi e affidabili. Questo approccio assicura che ogni aspetto del processo ETL, reso ancor più complesso dall’incremento dei volumi di dati da elaborare, sia sotto la costante supervisione di un esperto dedicato, capace di intervenire rapidamente con modifiche, ottimizzazioni e correzioni, mantenendo così l’eccezionale qualità del nostro sistema informativo.

Tali cruscotti di monitoraggio avanzati, sono stati sviluppati sfruttando le potenti capacità di visualizzazione e di reporting offerte da SAS Viya. Questi cruscotti sono stati progettati su misura per soddisfare le esigenze specifiche di ogni specialista, fornendo una visione chiara e dettagliata dello stato di avanzamento delle oltre 250 procedure di ETL gestite.

La trasparenza e l’efficacia del sistema di monitoraggio, combinata con la chiara assegnazione delle responsabilità, assicurano che i datamart siano costantemente aggiornati e accuratamente verificati, pronti per le analisi del giorno successivo. Questa metodologia non solo garantisce l’affidabilità e la continuità delle operazioni critiche per il Policlinico, ma promuove anche un ambiente di lavoro collaborativo e responsabile, dove ogni specialista è fondamentale per il successo dell’intero sistema .





Sicurezza e privacy nella gestione dei dati sanitari: l’esperienza del Gemelli

In un’epoca dove la digitalizzazione nel settore sanitario avanza a passi da gigante, il Policlinico Gemelli di Roma si distingue per il suo impegno nella fusione tra innovazione tecnologica e massimi standard di sicurezza e privacy. L’ospedale, noto per la sua eccellenza clinica, ha compiuto investimenti significativi in tecnologie all’avanguardia e protocolli rigorosi, con un obiettivo chiaro: garantire che ogni progresso tecnologico e ogni avanzamento nel trattamento e nell’analisi dei dati avvenga in un contesto sicuro, etico e rispettoso della privacy dei pazienti. Ma la tecnologia da sola non basta.

La consapevolezza e la preparazione del personale giocano un ruolo cruciale. Al Gemelli, medici, infermieri e personale amministrativo beneficiano di un programma di formazione continua che li mantiene aggiornati sulle migliori pratiche e sulle leggi vigenti in materia di privacy e sicurezza dei dati. Questa cultura della sicurezza si estende oltre i confini dell’ospedale, attraverso collaborazioni con alcuni dei nomi più affermati nel campo della cybersecurity per valutazioni di sicurezza proattive e audit regolari dei sistemi.

Conclusioni

L’approccio del Policlinico Gemelli evidenzia un equilibrio fondamentale nel settore sanitario moderno: abbracciare le potenzialità dell’innovazione tecnologica mantenendo al centro la sicurezza, la privacy e il benessere del paziente. In questo modo, l’istituto non solo si posiziona come leader nell’innovazione sanitaria ma stabilisce anche un modello di fiducia e trasparenza.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3