Il processo che porta un medico a fare una diagnosi e proporre una terapia per un determinato paziente è complesso e richiede esperienza e competenze specifiche. Attualmente, viene favorita e supportata la multidisciplinarietà delle decisioni, attraverso il coinvolgimento di specialisti con diverse competenze. il ragionamento che porta a una diagnosi, basato sulla storia e sulle caratteristiche del paziente e sui dati raccolti con le metodiche diagnostiche è, nella grande maggioranza dei casi, riproducibile e chiaro. In altri termini: spiegabile.
L’implementazione delle tecniche di intelligenza artificiale come ausilio al ragionamento e alle decisioni mediche è una delle promettenti aree di sviluppo della medicina moderna. Queste tecniche aiutano i medici a considerare grandi quantità di dati nel loro approccio alla diagnosi e a stabilire nuove possibili correlazioni secondo parametri innovativi. La scelta della migliore terapia disponibile, per un particolare paziente, può altrettanto beneficiare del supporto di queste tecniche.
L’intelligenza artificiale nella “salute circolare”: opportunità, sfide e passi concreti
La questione della spiegabilità delle decisioni degli algoritmi
La questione che viene maggiormente discussa in questi anni è relativa alla spiegabilità delle decisioni suggerite dagli algoritmi di intelligenza artificiale. I sistemi di intelligenza artificiale sono allenati per prendere decisioni e stabilire correlazioni in base a dati messi a disposizione da fonti diverse e di natura non omogenea. Recentemente è stato riscontrato come le modalità di allenamento di questi algoritmi possano portare a distorsioni o influenze specifiche sulle decisioni delle macchine, con importanti ripercussioni sulla qualità e sulla affidabilità delle decisioni stesse. La stampa ha dato grande enfasi al contenuto razzista od offensivo riscontrato in alcuni sistemi di comunicazione con utenti, di riconoscimento faciale o di selezione del personale.
La possibilità di un orientamento iniziale scorretto o influenzato da fattori esterni diventa ancora più critica quando viene applicato in ambito medico e di ricerca.
I primi sistemi di intelligenza artificiale erano facilmente interpretabili, ma la crescente utilizzazione di sistemi decisionali come le reti neurali profonde, ha reso l’interpretazione dei risultati forniti da queste macchine più difficoltosa. L’efficacia dei modelli di deep learning deriva dall’utilizzazione di algoritmi di apprendimento efficienti e dal grande numero di livelli e di parametri utilizzati. Queste caratteristiche li rendono tuttavia dei modelli complessi a “scatola nera”, per cui risulta difficile interpretare le decisioni prese da questi sistemi.
L’IA in contesti critici
Oltre che nelle scienze della salute, questi algoritmi vengono utilizzati spesso in contesti critici, che richiedono alti livelli di precisione, per cui la necessità di avere dei sistemi trasparenti è stata sottolineata in molti contesti. Inoltre, le implicazioni etiche di scelte non giustificabili perché legate a comportamenti non spiegabili da parte di una macchina, sono così importanti da rischiare di impedire l’utilizzazione dei sistemi di intelligenza artificiale in molti contesti, se non appropriatamente spiegati.
Il divario tra la comunità della ricerca in intelligenza artificiale e alcuni settori impedisce la piena penetrazione dei più recenti modelli di intelligenza artificiale in ambiti lenti nella trasformazione digitale e che hanno difficoltà a implementare tecniche che potrebbero mettere a rischio la sicurezza dei dati, come quello della salute.
Inoltre, l’intelligenza artificiale ha aiutato la ricerca proponendo relazioni oltre la portata cognitiva umana, particolarmente su grandi quantità di dati. Entrambi questi fattori acuiscono la richiesta di avere dei modelli trasparenti di intelligenza artificiale. Questa caratteristica può essere descritta in tre livelli: trasparenza algoritmica, scomponibilità e simulabilità.
La trasparenza algoritmica
La comunità scientifica è consapevole dell’importanza della trasparenza dei sistemi di intelligenza artificiale. Lo scorso anno, un gruppo di scienziati ha criticato uno studio pubblicato da Google che descrive una rete in grado di localizzare i segni di tumore della mammella dalle immagini mammografiche. In realtà, il problema della trasparenza e della riproducibilità dei dati è generalizzato nell’ambito delle scienze della salute. Infatti, sono state create diverse iniziative a supporto di quella che viene chiamata “Open Science” (scienza aperta). Queste iniziative hanno come scopo quello di ottenere la massima trasparenza e riproducibilità dagli studi pubblicati su riviste scientifiche. La base di queste considerazioni è che il metodo scientifico si basa su un rapporto di fiducia tra scienziati, che comporta la condivisione di dettagli sufficienti sulla ricerca per consentire ad altri di replicarla. I dati scientifici che non possono essere replicati non dovrebbero essere considerati affidabili. In realtà, fino ad ora non tutti i lavori hanno presentato dati riproducibili, anche se attualmente il numero sta crescendo significativamente, grazie alle iniziative di cui sopra.
La mancanza di trasparenza impedisce che i nuovi modelli e tecniche di intelligenza artificiale vengano adeguatamente valutati per affidabilità e sicurezza. Infatti, i modelli di apprendimento automatico che funzionano bene in laboratorio possono fallire quando sono applicati nel mondo reale, con conseguenze potenzialmente pericolose. L’utilizzazione degli algoritmi e dei dati da parte di diversi ricercatori potrebbe rilevare i punti deboli dei sistemi in maniera più veloce ed efficace. Mettere a disposizione il codice, i dati e l’hardware utilizzati per crearlo li renderebbe migliori in termini di sicurezza ed efficacia e maggiormente trasparenti. Mettere a disposizione i dati è però un’operazione difficile, in quanto accumulare dati e poterli analizzare è costoso ed attualmente sono poche le compagnie che possiedono queste capacità. Appare comprensibile quindi che siano riluttanti a rinunciare ai privilegi ottenuti.
Un’altra problematica connessa alla spiegabilità dell’intelligenza artificiale è quella delle prestazioni. L’opinione comune è che i sistemi complessi perdano di efficienza quando le loro decisioni sono rese trasparenti. In realtà, la possibilità di spiegare le motivazioni alla base delle decisioni prese dai sistemi di intelligenza artificiale consente di correggere eventuali carenze di progettazione, portando verosimilmente ad un miglioramento delle loro prestazioni.
La creazione di tecniche spiegabili di intelligenza artificiale consente di non limitare l’efficacia dell’attuale generazione di algoritmi. Sono state proposte quindi tecniche intelligenza artificiale spiegabile (eXplainable AI, XAI): “in grado di produrre modelli più spiegabili mantenendo un alto livello di prestazioni di apprendimento e consentire agli sviluppatori ed agli utilizzatori di comprendere, fidarsi e gestire efficacemente i sistemi di intelligenza artificiale”.
Conclusioni
In un ambito così importante come quello delle scienze della salute è quindi fondamentale che gli sviluppatori facciano ogni sforzo per rendere spiegabili gli algoritmi creati, in modo da consentire agli utilizzatori di prendere decisioni che possano essere condivise e spiegate non solo agli altri medici o operatori sanitari, ma anche e soprattutto ai pazienti.
Bibliografia
Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, et al. (2021)
Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, Information Fusion, 58, 82-115 https://doi.org/10.1016/j.inffus.2019.12.012.
Angelov, P. P., Soares, E. A., Jiang, R., Arnold, N. I., & Atkinson, P. M. (2021). Explainable artificial intelligence: an analytical review. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 11(5), e1424. https://doi.org/10.1002/widm.1424
Christian Meske, Enrico Bunde, Johannes Schneider & Martin Gersch (2020): Explainable Artificial Intelligence: Objectives, Stakeholders, and Future Research Opportunities, Information Systems Management, DOI: 10.1080/10580530.2020.1849465
Wojciech Samek, Thomas Wiegand, Klaus-Robert Muller. Explainable artificial intelligence: understanding, visualizing and interpreting deep learning models. arXiv:1708.08296v1
David Gunning, David W. Aha. DARPA’s Explainable Artificial Intelligence Program