L’intelligenza artificiale applicata al settore dell’assistenza sanitaria (healthcare), com’è risaputo, ha il potenziale per migliorare notevolmente le pratiche cliniche, affinare il campo della medicina “personalizzata” e, con un afflusso di grandi (banche) dati, apportare benefici a una platea di interessati storicamente non servita dall’accesso alle cure.
Ma per portare “a compimento” questi (e altri “indefiniti”) fini, gli esperti e gli addetti del settore healthcare devono assicurarsi che gli strumenti di intelligenza artificiale utilizzati siano affidabili e che non finiscano per perpetuare i pregiudizi (o “bias”) che affliggono i sistemi (si pensi ai pregiudizi su base etnica e sulle differenze di genere).
La ricerca sull’intelligenza artificiale nel settore healthcare
Alcuni ricercatori della “Abdul Latif Jameel Clinic for Machine Learning in Health” (Jameel Clinic), presso il Massachusetts Institute of Technology (MIT), Stati Uniti, hanno promosso un’iniziativa per sostenere la ricerca sull’intelligenza artificiale nel settore healthcare, puntando a creare una solida infrastruttura che possa aiutare scienziati e medici a perseguire questa “missione”.
Intelligenza artificiale: l’impatto della proposta di regolamento Ue sui dispositivi medici
La Jameel Clinic mira anche a valutare nuove tecniche di apprendimento automatico (o Machine Learning) che supportano l’equità, la personalizzazione e l’inclusione nel settore Healthcare, nonché l’identificazione di aree chiave di impatto dell’assistenza sanitaria, discutendo le implicazioni normative e politiche delle diverse scelte da attuare.
L’obiettivo finale del progetto della Jameel Clinic non è quello di risolvere una questione accademica o raggiungere un punto di riferimento specifico di ricerca, ma di migliorare effettivamente la vita dei pazienti in tutto il mondo. I ricercatori statunitensi insistono sul fatto che gli strumenti di intelligenza artificiale non dovrebbero essere progettati per una singola nazione o un singolo target di pazienti; bensì essere invece realizzati per essere reiterativi e inclusivi, nonché per servire qualsiasi comunità al mondo. Ma per fare ciò, un dato strumento di intelligenza artificiale deve essere studiato e convalidato attraverso lo studio su molte etnie.
La prospettiva clinica
Questa “chiamata alle armi” da parte dei ricercatori della Jameel Clinic è una risposta alle “richieste di aiuto” lanciate dal mondo healthcare negli ultimi anni. Ad esempio, quando un medico raccoglie informazioni sul suo paziente usa queste informazioni per creare un piano di trattamento. Ma se le informazioni si rivelano errate, l’intero piano potrebbe avere effetti nefasti. Invero, ogni prescrizione medica può essere interessata da un “dedalo di diverse forze” che possono influenzare il modo in cui un paziente riceve un trattamento. Queste “forze” vanno dall’essere iper-specifiche (es. singolo paziente con malattia rara) a universali (esempio per tutta la platea di pazienti con la medesima patologia), con fattori unici che attengono al singolo paziente ovvero a risultati di ricerche cliniche “fallati” per la scarsa qualità delle informazioni utilizzate.
Dataset e algoritmi
Come accennato, una questione centrale sollevata dai ricercatori della Jameel Clinic è rappresentata dalla problematica dei pregiudizi su base etnica che possono inficiare interi dataset impiegati nel settore Healthcare, soprattutto dal momento in cui si è di fronte a una variabile che può essere fluida e in continuo mutamento. Il problema dei bias etnici è dovuto alla loro essenza né biologica, né genetica; una sorta di “razzismo strutturale” non motivato su alcuna base razionale. Basti pensare che alcuni aspetti della salute sono puramente determinati dalla biologia, come ad esempio le condizioni ereditarie nel rapporto con la fibrosi cistica.
Anche se i ricercatori esperti di machine learning individuano i pregiudizi preesistenti nel sistema sanitario, essi devono al contempo affrontare le debolezze degli algoritmi stessi. Devono, in pratica, affrontare questioni importanti che sorgono in tutte le fasi dello sviluppo, dall’inquadramento iniziale di ciò che la tecnologia sta cercando di risolvere alla supervisione dell’implementazione “della stessa” nel mondo reale. Tra gli algoritmi esaminati dai ricercatori, ad esempio, ve n’è stato uno “out-of-the-box”, che si è “occupato” di proiettare la mortalità dei pazienti sfornando previsioni significativamente diverse su base etnica. Un algoritmo, questo, che può avere anche un impatto sul mondo reale (si pensi al modo in cui gli ospedali assegnano le risorse ai pazienti su base algoritmica). Ma i ricercatori hanno cercato di approfondire il perché tale algoritmo “ragionasse” in tal modo.
Innanzitutto, il “pregiudizio” (bias): forse il modello non era adatto per quel tipo di ricerca. La seconda è la “varianza” (variance): probabilmente la dimensione del campione di interessati non era stata controllata “a dovere”. L’ultima fonte è il “rumore” (noise), che indica che qualcosa è successo durante il processo di raccolta dei dati (un passo che precede lo sviluppo del modello). Molte disuguaglianze sistemiche, come un’assicurazione sanitaria limitata o una storica sfiducia nella medicina in certi gruppi etnici, vengono ricondotte al “rumore”. Una volta che si identifica quale componente dei tre è il problema, si può proporre una correzione dell’intero algoritmo.
La “privacy differenziale”
Un ricercatore del MIT ha studiato il compromesso tra l’anonimizzazione dei dati personali utilizzati in campo sanitario e la garanzia che tutti i pazienti siano equamente rappresentati. In casi come la “privacy differenziale”, uno strumento di apprendimento automatico che garantisce lo stesso livello di privacy per ogni punto di dati, gli individui che sono risultati troppo “unici” nella loro coorte di riferimento hanno iniziato a perdere influenza predittiva nel modello. È necessario creare più dati, purché siano dati diversi. Questi algoritmi robusti, a prova di privacy, equi e di alta qualità che si stanno cercando di addestrare richiedono dataset su larga scala per essere idonei per il campo della ricerca.
Oltre alla Jameel Clinic, altre organizzazioni stanno riconoscendo il potere di sfruttare dati diversi per creare un’assistenza sanitaria più equa. Alcuni ricercatori hanno presentato un progetto senza precedenti del National Institutes of Health che mira a colmare il divario per le popolazioni storicamente sotto-riconosciute raccogliendo dati sanitari osservazionali e longitudinali su oltre un milione di americani. Il database ha lo scopo di scoprire come le malattie si presentano in diverse sottopopolazioni.
Ma un punto a cui non si può soprassedere è la questione politica, soprattutto sul fronte statunitense. L’equità nel settore Healthcare la si raggiunge anche con una regolamentazione dell’Intelligenza Artificiale. Sul punto l’Unione europea, ad esempio, è tra le prime istituzioni al mondo a intervenire compiutamente in materia.[1] Ci sono un sacco di opportunità per la politica mondiale di puntare a un’intelligenza artificiale equa e giusta.
Ma prima che la politica “faccia il suo corso”, ci sono alcune buone pratiche per gli sviluppatori da tenere a mente. I ricercatori dovrebbero essere estremamente sistematici e accurati “in anticipo” quando si scelgono i dataset e gli algoritmi da utilizzare, nonché quando si determina la fattibilità sulla fonte, sui tipi, sulla mancanza e sulla diversità dei dati impiegati. In fin dei conti, anche gli insiemi di grandi dataset contengono pregiudizi intrinseci.
Infine, è necessario investire in nuovi ricercatori che abbiano diverso background culturale e diverse esperienze di vita e professionali, garantendo che abbiano l’opportunità di lavorare su problemi veramente importanti per i pazienti interessati dalle nuove tecnologie del settore Healthcare.[2]
Note
- Ecco il Regolamento UE sull’intelligenza artificiale, sul percorso del GDPR. Cybersecurity360. https://www.cybersecurity360.it/legal/privacy-dati-personali/ecco-il-regolamento-ue-sullintelligenza-artificiale-complementare-al-gdpr-sulla-privacy/ ↑
- The potential of artificial intelligence to bring equity in health care. MIT. https://news.mit.edu/2021/potential-artificial-intelligence-bring-equity-health-care-0601 ↑