Il futuro del settore sanitario è inestricabilmente legato all’intelligenza artificiale. Certo, non siamo ancora in un tempo in cui si possa parlare di una tecnologia “all’altezza delle aspettative”, anche perché le infrastrutture dei sistemi sanitari non sono ancora pronte. Ma qualcosa – con difficoltà – si muove.
Intelligenza artificiale in sanità: aspettative e ostacoli di un processo lento
Basta semplicemente osservare la miriade di investimenti effettuati negli ultimi anni, nonché lo sviluppo e la crescita di numerose aziende in questo campo. Certo, qualche anno fa si gridava alla sostituzione del professionista sanitario con l’intelligenza artificiale, un po’ come – decenni addietro – si guardava ai robot industriali come sostituti degli operai. Tuttavia, né l’operaio (specializzato) è venuto meno con l’avanzare della tecnologia, né il medico è stato sostituito dall’intelligenza artificiale. Se le previsioni di un lustro fa guardavano alla sostituzione del professionista sanitario, le attuali guardano al suo “affiancamento” professionale. Invece di sostituire il medico, l’intelligenza artificiale opera come uno strumento da utilizzare per “migliorare tutto”, dalle diagnosi alle pratiche burocratiche, dall’assistenza sanitaria alla contabilità.
Ma, c’è un ma, che si traduce in ostacoli all’implementazione “pratica” dell’intelligenza artificiale, con aziende che “promettono il mondo” e che, all’atto pratico, svelano il bluff. Non sempre, infatti, si ha a che fare con fornitori di dispositivi e software all’altezza delle aspettative. Anche perché, a dirla tutta, ogni struttura sanitaria è un mondo a sé, bisognoso di soluzioni “sartoriali”, ossia adattate alle sue peculiarità. E questo è anche un motivo per cui diversi nosocomi, ad esempio, creano team di ingegneri e procedono a sviluppare soluzioni di intelligenza artificiale, nonché di altre tecnologie, interne e su misura per le proprie esigenze. Tuttavia, siamo dinanzi ad un processo lento: l’implementazione dell’intelligenza artificiale in sanità procede “con i piedi di piombo”, cosa che non succede in altri settori.
Intelligenza artificiale, il risarcimento danni in Sanità: come l’Europa traccia la via
Accesso e trattamento dati: i problemi dell’AI applicata alla sanità
Il più grande ostacolo all’uso dell’intelligenza artificiale in sanità ha a che fare con le “infrastrutture”. I sistemi sanitari devono consentire innanzitutto agli algoritmi di accedere ai dati dei pazienti. Negli ultimi anni, i sistemi più grandi e ben finanziati hanno investito diversi fondi per spostare i loro dati su cloud, creando vasti “laghi di dati” pronti ad essere utilizzati dall’intelligenza artificiale. Un altro problema è che ogni sistema sanitario è unico nella sua tecnologia e nel modo in cui tratta i pazienti e i loro dati. Ciò significa che un algoritmo potrebbe funzionare bene per un ospedale e non per un altro. E qui ci ricolleghiamo al discorso in premessa relativo alla creazione di team di ingegneri “interni” ai nosocomi. Cosa che, come ogni cosa, ha anche un lato negativo. Infatti, a meno che i sistemi sanitari non vendano la loro tecnologia a terzi, è improbabile che tale tecnologia venga sottoposta al rigido controllo a cui sono sottoposti i software commerciali. E questo aspetto potrebbe fare in modo che gli eventuali difetti riscontrati non vengano rilevati né risolti, se non nel lungo periodo. Cosa che si ripercuote inevitabilmente sulla qualità dei dati (altro ostacolo significativo all’introduzione della tecnologia in esame nelle strutture sanitarie).
L’isolamento dei singoli sistemi sanitari
Altro problema è l’isolamento dei singoli sistemi sanitari, che rende più difficile raccogliere dati consistenti da sottoporre all’esame dell’intelligenza artificiale. Per esempio, un ospedale può avere dati completi su una visita, ma il resto della storia medica di un paziente è conservato altrove, rendendo più difficile trarre conclusioni su come procedere col percorso di cura del paziente. Inoltre, sebbene alcuni sistemi sanitari abbiano investito per raccogliere i dati da diverse fonti in un unico archivio, non tutti gli ospedali hanno le medesime risorse per procedere in tal maniera.
Il lato privacy e i pregiudizi dell’intelligenza artificiale
Poi, come dimenticare il “lato privacy” della questione? Tutto il settore healthcare è soggetto a stringenti normative in materia di trattamento dei dati personali (GDPR “e non solo”) che – “ad intensità diverse” – limitano la quantità e il tipo di dati che le aziende che forniscono le soluzioni di intelligenza artificiale possono raccogliere e, in generale, trattare.
Per concludere poi con i già citati pregiudizi (bias) dell’intelligenza artificiale, che possono aumentare enormemente le disparità nell’assistenza sanitaria. Ad esempio, uno studio statunitense di tre anni fa, pubblicato su Nature[1], ha rilevato che un algoritmo implementato in ospedale “spingeva” più spesso i pazienti di etnia caucasica verso programmi volti a fornire cure migliori rispetto ai pazienti di colore.
L’IA in radiologia: le sperimentazioni
Nonostante i diversi ostacoli sul cammino, il settore in esame si mostra sempre “entusiasta” del potenziale dell’intelligenza artificiale di trasformare il mondo healthcare. L’intelligenza artificiale, d’altronde, può “farsi carico” di un numero sempre maggiore di “compiti routinari” in medicina, dando ai medici più tempo da dedicare ai pazienti (e non alla burocrazia) al fine di raggiungere la diagnosi corretta e/o sviluppare un piano di trattamento completo. Tra le diverse branche della medicina, la radiologia è uno dei casi d’uso più promettenti per l’intelligenza artificiale.
Ad esempio, la non-profit statunitense Mayo Clinic ha in corso una sperimentazione clinica[2] per valutare un algoritmo che mira a ridurre, da diverse ore a pochi attimi, il processo che i medici intraprendono per tracciare un piano chirurgico per la rimozione di tumori complessi della testa e del collo. Così come, al centro medico newyorkese NYU Langone Health, una sperimentazione dell’intelligenza artificiale in radiologia (in collaborazione con Facebook) ha permesso di ridurre il tempo necessario per una risonanza magnetica da un’ora a quindici minuti. Per finire con l’Ochsner Health in Louisiana (USA) che ha costruito un modello di intelligenza artificiale atto a rilevare i primi segni di sepsi, una reazione potenzialmente letale alle infezioni. Per convincere il personale infermieristico ad adottarlo, l’Ochsner Health ha creato un “team” per monitorare tale tecnologia e intervenire quando necessario.
Un modello di valutazione dell’intelligenza artificiale in sanità, FDA al lavoro
Negli Stati Uniti la “Food and Drug Administration” (FDA, ente governativo che si occupa della regolamentazione dei prodotti alimentari e farmaceutici) ha preso provvedimenti per sviluppare un modello di valutazione dell’intelligenza artificiale in sanità. Ma è ancora agli inizi. Ci si chiede come le autorità di regolamentazione (come FDA o, in futuro, la “nostra” AIFA) possano monitorare gli algoritmi durante la loro evoluzione e contenere gli aspetti dannosi e pericolosi della tecnologia in esame, come gli onnipresenti pregiudizi (“bias”) che minacciano di esacerbare le disuguaglianze nel settore dell’assistenza sanitaria.
La supervisione del comportamento degli algoritmi in scenari reali
Lo scorso anno sempre la Food and Drug Administration ha pubblicato una serie di linee guida per l’utilizzo dell’intelligenza artificiale e dell’Apprendimento Automatico (Machine Learning) come dispositivo medico[3], guardando alla supervisione del comportamento degli algoritmi in scenari reali ed allo sviluppo di metodi di ricerca per eliminare i pregiudizi dell’intelligenza artificiale. Certo, regolamentare gli algoritmi è una sfida, vista soprattutto la rapidità con cui la tecnologia avanza inesorabilmente. La FDA sta cercando di evitare questo problema richiedendo alle aziende statunitensi di istituire un monitoraggio in tempo reale e di presentare piani per le modifiche future. Anche se l’intelligenza artificiale sviluppata internamente agli ospedali non è soggetta a queste regole (poiché, nella maggior parte dei casi, non vi è commercio). Forse bisognerebbe appoggiare ed implementare standard pubblico-privati per l’intelligenza artificiale che aiuterebbero a far progredire tale tecnologia. Tuttavia, gli standard sono volontari, il che potrebbe attenuarne l’impatto se non venissero adottati su larga scala.[4]
- Millions of black people affected by racial bias in health-care algorithms. Nature. https://www.nature.com/articles/d41586-019-03228-6#ref-CR1 ↑
- A Study to Evaluate Contouring Organs at Risk for Treatment Planning. Mayo Clinic. https://www.mayo.edu/research/clinical-trials/cls-20511050?_ga=2.18316281.1178387720.1660162682-789090762.1659382439 ↑
- Artificial Intelligence and Machine Learning in Software as a Medical Device. U.S. Food and Drug Administration. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device ↑
- Artificial intelligence was supposed to transform health care. It hasn’t. Politico. https://www.politico.com/news/2022/08/15/artificial-intelligence-health-care-00051828#:~:text=transform%20health%20care.-,It%20hasn’t.,regulatory%20obstacles%20have%20slowed%20progress. ↑