Usare gli strumenti della telemedicina per sviluppare un sistema di sanità virtuale e digitale può essere una via per ottimizzare e rendere più efficiente la prassi delle visite mediche di routine: si possono così ridurre i costi degli spostamenti fisici dei pazienti e si può arrivare a un sistema di monitoraggio del paziente personalizzato e continuo.
Le prospettive sono entusiasmanti, certo, ma bisogna fare i conti anche con i limiti che, in Italia, sono connessi alla gestione del fascicolo sanitario personale e alla gestione dei big data sanitari.
Se questi non saranno superati, i risultati della sanità virtuale e digitale possono non essere migliori di quelli che derivano dallo screening annuale effettuato mediante la tradizionale visita medica personale.
Sanità 4.0, una strategia integrata e globale per la trasformazione digitale
Una medicina che va oltre l’evidente, con AI e big data
Eppure, con l’utilizzo dei big data e dell’intelligenza artificiale si può costruire una medicina basata su ciò che non è evidente per il singolo medico umano, ma che può diventare evidente con l’utilizzo dei big data e delle tecniche di deep learning in quanto in grado di considerare e processare molte più informazioni di quanto sia possibile ad un essere umano.
Oggi con l’utilizzo dei big data in sanità e delle tecniche di deep learning siamo in grado di fare una effettiva medicina predittiva e preventiva molto tempo prima della comparsa dei sintomi e per le patologie croniche e ingravescenti questo costituisce un notevole vantaggio. L’accesso istantaneo all’intero set di dati consente di prevedere l’evoluzione del quadro clinico attraverso algoritmi decisionali di supporto che rendano maggiormente efficiente l’intero processo. Il tutto viene realizzato enfatizzando la natura costruttivistica del processo, finalizzata a portare un notevole vantaggio a tutti gli stakeholder interessati nel percorso di cura e assistenza dell’individuo.
Il modello diagnostico-assistenziale basato anche sul fascicolo elettronico sanitario personalizzato, potrà essere in grado di rispondere alle richieste di servizi di diagnosi, prognosi e cura sempre più efficaci, efficienti e di qualità per il paziente il cui trade-off tra livello di servizio e costi di realizzazione, potrà essere attenuato grazie all’applicazione di tecnologie, sistemi e procedure innovative di gestione del processo clinico secondo una logica di e-Health Service Management. La creazione del fascicolo elettronico sanitario che si arricchisce continuamente con il monitoraggio di valori rilevati in remoto contribuisce a rendere diagnosticabili in una fase molto iniziale molte patologie, a individuare situazioni di rischi, a gestire a distanza l’assistenza e la cura.
Il monitoraggio dello stato di salute, la prevenzione di situazioni critiche e il supporto ad attività quotidiane rappresentano, quindi, un ambito applicativo emergente a livello sanitario, con particolare riferimento alle persone fragili, anziane e con patologie croniche.
L’evoluzione della telemedicina
La telemedicina si va evolvendo in maniera molto rapida e si sta trasformando in sanità digitale e virtuale. I vantaggi di tale approccio sono immediatamente comprensibili. Molte persone si sottopongono annualmente a un controllo periodico di routine. In questo controllo i medici fanno un’accurata anamnesi, ricostruiscono la storia familiare dei pazienti, controllano di norma la pressione sanguigna, la frequenza cardiaca, analizzano i risultati delle principali analisi che si possono effettuare con un prelievo ematico e discutono di eventuali ulteriori screening preventivi e consigliano abitudini di vita sane.
Il principale punto di forza di questo sistema è il rapporto fiduciario che si instaura fra medico e paziente e l’acquisizione di dati base che possono essere utili al medico nel riconoscere e trattare determinate patologie che potrebbero presentare in futuro.
Un beneficio importante per molti pazienti e clinici è la possibilità di sviluppare un rapporto di fiducia a cui ricorrere se e quando sorgono gravi problemi medici.
Quella dello screening preventivo di base, specialmente per i pazienti senza sintomi, è la strategia di base utilizzata per la prevenzione medica nel mondo. Tuttavia, essa denota dei limiti medici evidenti. Lo strumento principale usato in questo screening, lo stetoscopio, ha più di 200 anni di vita e ormai pochi medici lo sanno utilizzare in maniera ottimale. Controllare la pressione sanguigna e altri indicatori che derivano dagli esami di routine una volta all’anno fornisce un quadro che potrebbe essere non veritiero in relazione alle reali condizioni di salute di una persona. Un altro grosso limite è legato al tempo che ciascun medico può dedicare al singolo paziente durante una visita annuale in presenza.
I limiti della sanità 4.0 in Italia
Un primo limite è che, in Italia, questa prospettiva si scontra con il divario tecnologico nella sanità digitale italiana e con la frammentazione regionale delle politiche sanitarie. In Italia il fascicolo sanitario elettronico oggi è un miraggio per un numero consistente di cittadini. Anche le regioni che hanno avviato progetti in questo campo non hanno sempre tenuto in debito conto la necessità dell’interoperabilità nello scambio dei dati. Senza fascicolo sanitario elettronico non solo diventano impossibili le applicazioni avanzate della sanità 4.0, ma perdono di efficacia anche le normali procedure sanitarie di routine. La sanità virtuale e digitale richiede come prerequisito un modello diagnostico-assistenziale basato sul fascicolo elettronico sanitario personalizzato, che sia in grado di rispondere alle richieste di servizi di diagnosi, prognosi e cura sempre più efficaci, efficienti e di qualità per il paziente il cui trade-off tra livello di servizio e costi di realizzazione, potrà essere attenuato grazie all’applicazione di tecnologie, sistemi e procedure innovative di gestione del processo clinico secondo una logica di e-Health Service Management.
Il flop dell’IA nella gestione del covid: il nodo della qualità dei dati
Un ulteriore elemento di critico di questo approccio è la è la gestione corretta della grande quantità di dati che già minaccia mettere in crisi la medicina predittiva.
La facilità di uso dello strumento può trarre in inganno e far pensare che basti avere grandi quantità di dati per raggiungere attraverso il deep learning un buon risultato. È la potenza dello strumento a trarre in inganno e a far credere che l’intelligenza artificiale assomigli a una scatoletta in cui basti inserire dei dati per ricavare un buon risultato. Questa falsa credenza si è molto diffusa nella comunità scientifica in campo medico, soprattutto durante la pandemia di Covid 19. A posteriori si può affermare che la quasi totalità delle applicazioni ha avuto un impatto nullo rispetto allo scopo di migliorare la gestione della pandemia. Hanno fallito gli algoritmi di previsione della probabilità di aggravamento dei pazienti, hanno fallito i programmi di diagnosi rapida e precoce, hanno fallito i modelli di previsione della diffusione dell’epidemia. Un altro fatto ormai ben noto è che gli algoritmi possono sviluppare dei bias, cioè delle false rappresentazioni che possono inficiare il risultato finale.
L’origine di questi fallimenti va ricercata nella qualità del dato che viene usato per addestrare gli algoritmi. Spesso con leggerezza si effettua il machine learning con dati non controllati, o non verificati, o di scarsa qualità. Un database di scarsa qualità è già il primo passo verso un fallimento certo.
Si sono creati database “Frankenstein” che derivavano dall’aggregazione di basi di dati diverse, non omogenee e soprattutto costituite da dati raccolti con metodologie e strumenti diversi. Molti strumenti, inoltre, sono stati sviluppati da ricercatori di IA che mancavano delle competenze mediche per individuare difetti nei dati o da ricercatori medici che mancavano delle capacità matematiche per gestire i problemi della raccolta dei dati.
Conclusioni
Se vogliamo, quindi, evitare il fallimento dei modelli di AI dobbiamo cercare una solida metodologia di costruzione e di analisi dei dati, dobbiamo creare dei database standardizzati e dobbiamo far precedere una seria analisi sulla qualità del dato alla costruzione degli algoritmi. È un lavoro certosino e meno gratificante, ma necessario, perché un set di dati di scarsa qualità produce previsioni scadenti e in sanità questo si ripercuote pesantemente sui pazienti.