L’arrivo dell’intelligenza artificiale in medicina è spesso presentato dai media come foriero di grandi progressi diagnostici e terapeutici. In realtà la questione è più complessa e attraversa sia il fronte tecnologico che quello della governance del passaggio da una sanità digitale a una sanità “smart”. Approfondiamo il tema valutando pro e contro di questa rivoluzione.
Da sanità digitale a sanità smart
Anzitutto, bisogna ricordare che il sistema sanitario si avvale da sempre di tecniche statistiche sofisticate per verificare l’efficacia delle cure (ad esempio, i protocolli per la sperimentazione di nuovi farmaci) e per personalizzarle secondo l’età e il quadro sanitario complessivo dei pazienti. Queste tecniche si applicano anche alla definizione delle politiche sanitarie pubbliche di allocazione delle risorse, e forniscono la base dei modelli attuariali usati dagli assicuratori pubblici e privati per stabilire e sorvegliare i premi assicurativi. Nel secolo scorso, l’Italia ha dato importanti contributi all’evoluzione di questi strumenti, anche attraverso l’opera di grandi matematici come DeFinetti.
I parametri che vengono raccolti e utilizzati per calcolare i modelli statistici sono perlopiù di tipo macroscopico (età, genere) e spesso includono valori su scale ordinali o indici (ad esempio, i rapporti usati per esprimere l’obesità). Per questo motivo, molti individui si ritrovano con valori simili di questi parametri e molte inferenze statistiche, come il calcolo della frequenza di eventi cardio-vascolari che si usa nei modelli di rischio, stimano probabilità che potremmo definire collettive. La previsione statistica dell’efficacia di un farmaco o la prognosi per un certo quadro clinico valgono per tutti gli individui che presentano gli stessi valori dei parametri.
L’intelligenza artificiale destabilizza questo quadro, consentendo la raccolta rapida e poco costosa di parametri che sono unici per ciascun individuo. Questo avviene da tempo per il codice genetico (il genoma o DNA), ma riguarda oggi anche caratteristiche fenotipiche, ovvero parametri descrittivi che sono sì abilitati dal genoma, ma poi modulati dalla storia e dallo stile di vita dell’individuo. Questi parametri possono poi essere forniti a modelli diagnostici o prognostici basati sull’apprendimento computazionale, che stimano probabilità individuali ed eseguono inferenze personalizzate.
Proteine nel mirino della nuova diagnostica
Consideriamo ad esempio la proteomica, la disciplina che studia la produzione delle proteine da parte delle cellule umane. Il genoma di qualsiasi organismo contiene i progetti di migliaia di proteine che controllano quasi tutte le funzioni della vita. Proteine difettose portano a gravi malattie, come il cancro, il diabete o la demenza. Pertanto, i difetti delle proteine sono gli obiettivi più importanti per i farmaci. Allo stato attuale, si utilizza la spettrometria di massa per determinare il tipo e la quantità di proteine in un sistema biologico; ma i metodi spettrometrici non sono precisi né applicabili su larga scala.
Gli spettrometri di massa non misurano direttamente le proteine. Analizzano parti più piccole costituite da sequenze di aminoacidi. Gli spettri misurati di queste sequenze vengono confrontati con un database di “firme” proteiche al fine di identificare le specifiche proteine. Tuttavia, il software che calcola il matching spettro-firma può utilizzare solo una parte delle informazioni contenute nello spettro. Pertanto, alcune proteine non sono riconosciute o sono riconosciute in modo errato.
Utilizzando l’intelligenza artificiale, è possibile rendere l’analisi di massa di proteine di qualsiasi organismo significativamente più veloce e quasi priva di errori. In pratica, i dati proteomici sono usati per addestrare una rete neurale capace di riconoscere le proteine rapidamente e quasi senza errori. Il profilo proteomico può quindi complementare quello genomico nella descrizione dell’individuo.
Un terzo profilo altamente descrittivo è quello lipidico, che si concentra sulla presenza e distribuzione dei grassi (lipidoma) nell’organismo. Negli ultimi anni, c’è stato un grande sforzo per sviluppare metodologie adeguate per identificare e monitorare quantitativamente i lipidi nei sistemi biologici. La lipidomica è quindi emersa come disciplina per identificare in modo completo lipidi, mediatori derivati da lipidi e reti lipidiche tridimensionali nei fluidi corporei, nei tessuti e nelle cellule. I lipidi partecipano a una serie di percorsi critici di segnalazione e traffico di proteine, e possono fornire importanti indicazioni ai modelli predittivi. Tuttavia, proprio a causa della complessità e della diversità del lipidoma, la ricerca sui profili lipidici è impegnativa.
Profili sanitari, un mercato che vale miliardi
I modelli per il calcolo dei profili e gli algoritmi per la loro traduzione in elementi di uno spazio metrico (ad esempio, uno spazio vettoriale) devono poi essere composti (o co-addestrati) con altri modelli di apprendimento computazionale, i classificatori diagnostici e i predittori prognostici, che ovviamente continueranno a ricevere anche gli usuali metadati sugli individui. Le difficoltà e i costi nella realizzazione e nell’addestramento di questi modelli non vanno sottovalutati, a causa della loro multidimensionality (alto numero di parametri in ingresso) e soprattutto della selettività della predizione. Vediamo di capire perché senza cadere nei tecnicismi.
Gli esempi che associano profili individuali a esiti prognostici noti devono essere generalizzati dal predittore per stimare l’esito associato a un nuovo profilo. La generalizzazione è ottenuta durante l’addestramento del predittore, modificandolo progressivamente in modo che l’associazione profili-esiti funzioni anche per profili paziente che il predittore non ha mai visto. Un ingrediente chiave per questa modifica è la nozione di distanza, o meglio di vicinanza, tra profili, che deve rispecchiare una sostituibilità funzionale piuttosto che una mera differenza di codifica. I genetisti, in collaborazione con i matematici, hanno già sviluppato speciali nozioni di distanza tra (porzioni di) genoma, ma per la proteomica e lipidomica il lavoro è ancora in corso, anche a causa della necessità di tenere conto della struttura tridimensionale delle proteine nel calcolare la distanza.
I lavori di ricerca indicano però che la strada è tracciata. Modelli di mortalità individuale in grado di predire la data della morte, o di confermare/escludere l’efficacia di una terapia per un certo individuo, sono già stati impostati e verificati. Il loro uso attuale è prevalentemente nel repurposing dei farmaci già approvati, ovvero nell’identificazione di profili per cui un farmaco originariamente sviluppato per una certa patologia può essere utilizzato con successo per un’altra. Il repurposing è essenziale vista la difficoltà crescente di inventare e far ammettere alla commercializzazione nuove molecole.
Profilazione genetica: i rischi
La tentazione di usare i modelli IA per modulare l’assistenza a cui ciascuno ha diritto è però inevitabile. Le obiezioni di tipo etico che sono state fatte per l’uso della profilazione genetica sono indebolite nel caso della profilazione basata su caratteri fenotipici che dipendono anche dallo stile di vita e quindi dalle scelte individuali.
Come minimo, assisteremo a una pressione delle assicurazioni pubbliche e private per passare dai modelli attuariali a modelli personalizzati nel calcolo dei premi. L’epoca in cui mangiare un cheeseburger farà aumentare il premio della nostra assicurazione sanitaria alla stessa velocità con cui fa crescere il colesterolo nel nostro sangue potrebbe non essere così lontana.
L’aumento del differenziale di costo tra l’assistenza personalizzata e quella collettiva è un possibile fattore di tensione tra il settore privato (che spingerà per avere i migliori clienti, quelli che si ammalano poco e con prognosi favorevoli) e quella pubblica e/o obbligatoria, che potrebbe ritrovarsi con i clienti peggiori. Questo tema, che è stato fortemente presente nel dibattito sull’Obamacare negli Stati Uniti, deve essere riconsiderato anche in Europa.
Sistemi di AI in Sanità: gli ostacoli
C’è però un fattore di inerzia tecnologica che sta facendo da ammortizzatore. Ogni organizzazione sanitaria ha costruito la propria infrastruttura di dati per supportare le proprie esigenze in termini di calcolo e archiviazione locale. Le aziende sanitarie hanno dovuto acquistare costosi hardware e software necessari per l’assistenza sanitaria, in particolare le cartelle cliniche elettroniche.
Come abbiamo visto, la rapida esplosione dell’IA ha introdotto la possibilità di utilizzare dati sanitari per produrre modelli in grado di automatizzare la diagnosi e consentire un approccio sempre più preciso alla medicina.
Tuttavia, gli algoritmi che hanno un ruolo di spicco nella letteratura di ricerca non sono, per la maggior parte, ancora eseguibili nella pratica clinica. Questo per due motivi: in primo luogo, il personale sanitario che dovrebbe utilizzarli va formato e i processi con cui andrebbero inseriti vanno completamente ri-progettati, modificando l’attuale rete di rapporti politici ed economici, nonché le norme di pratica medica. La semplice aggiunta di applicazioni AI in alcuni centri di eccellenza non creerà cambiamenti sostenibili.
In secondo luogo, la maggior parte delle aziende sanitarie non dispone nemmeno in prospettiva dell’infrastruttura di dati necessaria per raccogliere i parametri necessari per addestrare in modo ottimale gli algoritmi in modo da “adattarsi” alla popolazione e/o ai modelli di vita locali e prevenire distorsioni. O per garantire che gli algoritmi si comportino in modo coerente sui pazienti, in particolare quelli che potrebbero non essere stati adeguatamente rappresentati nel dati di addestramento.
Alcuni di questi problemi possono essere affrontati attraverso una certificazione esterna dei modelli di IA sanitari, così come dei modelli usati in altre applicazioni che hanno diretto impatto sulla vita delle persone. Occorre però che queste procedure siano agili e rapide, se non si vuole che il mercato faccia da solo.