L’impiego dell’IA nel campo sanitario può trasformare profondamente la qualità dell’assistenza e dei trattamenti. I sistemi di supporto decisionale clinico o clinical decision support systems, CDSS sono strumenti che migliorano il processo decisionale e il flusso di lavoro. Tra questi, abbiamo avvisi e promemoria, linee guida cliniche, report sui dati dei pazienti e supporto diagnostico (Hulsen, 2023).
Resistenza all’uso dell’IA: il problema della scatola nera
Nonostante siano strumenti utili, può esserci una certa resistenza nel loro utilizzo dovuta principalmente al cosiddetto problema della “scatola nera”. Questo termine si riferisce alla difficoltà di comprendere le logiche dietro i loro processi decisionali che risultano poco chiari, opachi. Questa mancanza di trasparenza rende difficile per gli utenti capire su quali basi vengono generati determinati output, rinforzando un senso di diffidenza e sfiducia, andando a ridurre quindi la probabilità che vengano utilizzati.
Soprattutto nel contesto sanitario, dove una decisione può avere implicazioni critiche, è particolarmente importante per un professionista capire perché e in che modo lo strumento suggerisce un determinato risultato; un ulteriore aspetto critico poi riguarda privacy e sicurezza dei dati sensibili (Yang et al., 2022).
L’intelligenza artificiale spiegabile in Sanità
La necessità di rendere più comprensibile il processo decisionale ha dato origine a un nuovo sottocampo chiamato intelligenza artificiale spiegabile (XAI), il cui obiettivo è migliorare l’interpretabilità, l’equità e la trasparenza degli algoritmi di apprendimento automatico (Taylor & Taylor, 2021).
In che modo può migliorare l’implementazione e l’accettazione delle nuove tecnologie nel settore sanitario?
Che cos’è l’AI spiegabile (XAI)
L’intelligenza artificiale spiegabile (XAI) è un campo dell’IA che si occupa di come creare modelli trasparenti e interpretabili al fine di rendere gli utenti in grado di comprendere come e perché sono state raggiunte determinate conclusioni.
Secondo Hulsen (2023) si può passare da modelli “scatole nere”, inaccessibili, a “scatole di vetro”, trasparenti, seguendo quattro principi fondamentali: spiegazione, significatività, accuratezza, limiti di conoscenza. Un’intelligenza artificiale diventa spiegabile quando è in grado di fornire prove e motivazioni chiare; le ragioni devono essere significative e comprensibili anche per chi non ha un background tecnico. Inoltre, è fondamentale che queste spiegazioni siano accurate, cioè che rappresentino correttamente il processo con cui il sistema genera l’output. Infine, deve esserci trasparenza riguardo ai limiti di conoscenza di tali sistemi, poiché non sarà mai possibile comprendere ogni minimo dettaglio della progettazione.
L’importanza di avere intelligenze artificiali spiegabili in Sanità
Ma perché è importante arrivare ad avere intelligenze artificiali spiegabili?
Come sostenuto dalle teorie della cognizione sociale, gli esseri umani tendono a interagire con le macchine “umanizzandole”, trattandole come agenti sociali e attribuendo loro caratteristiche umane anche quando sono pienamente consapevoli di stare interagendo con una tecnologia, non con una persona.
Gli utenti proiettano le proprie credenze, pensieri, idee ed emozioni, assumendo implicitamente che l’IA prenda decisioni come fosse, appunto, un umano, aumentando il rischio di interpretazioni scorrette e inadeguate degli output (Yang et al., 2022). Ed è per questo che una maggiore trasparenza e accessibilità renderebbe l’uso dell’IA più corretto e valido.
La cognizione artificiale per migliorare le decisioni cliniche
La cognizione artificiale combina conoscenze provenienti da diverse discipline, come psicologia e neuroscienze, per sviluppare modelli che replicano funzioni cognitive umane allo scopo di creare un’intelligenza artificiale più comprensibile. Così come la psicologia sperimentale indaga i processi mentali, come la memoria e il linguaggio, attraverso metodi indiretti, allo stesso modo è possibile comprendere i sistemi di intelligenza artificiale mediante inferenza. Analogamente quindi per l’intelligenza artificiale, invece di modificare l’architettura dei sistemi o fornire spiegazioni retroattive sulle loro decisioni, è possibile creare modelli che rappresentino efficacemente il funzionamento interno (Taylor & Taylor, 2021).
Questo approccio è utile perché, così come le decisioni umane non si basano su verità assolute ma su determinate condizioni in un determinato momento, i modelli di apprendimento rispondono sulla base di set di dati di addestramento. Una risposta umana può essere distorta o avere bias tanto quanto la risposta di una IA.
La questione quindi non è ambire ad una trasparenza e spiegabilità assolute quanto al riuscire ad ottenere risposte soddisfacenti e affidabili. In settori come quello sanitario dove le varibili in gioco sono molte, in cui al dilemma clinico si può aggiungere quello etico e morale, in situazioni critiche e scenari incerti, l’interpretazione deve essere flessibile: le spiegazioni sono ritenute soddisfacenti solo se consentono agli utenti di valutare se una decisione è appropriata per il contesto specifico e bilancia diverse conseguenze possibili.
La sinergia tra IA e professionisti sanitari
L’uso efficace dell’intelligenza artificiale in ambito clinico viene reso più complicato da alcuni fattori:
- possibilità di distorsione di dati, soprattutto in coorti di pazienti che rappresentano minoranze;
- rispetto di norme su privacy e sicurezza, sempre più stringenti;
- scarsa fiducia in questi strumenti, visti come “scatole nere”.
Quest’ultimo punto è particolarmente saliente dato che si tratta di applicazioni che supportano nel prendere scelte decisive per i pazienti.
La questione della fiducia ne compromette l’uso: se manca può portare a ignorare previsioni valide, dall’altro lato se eccessiva potrebbe comportare la presa di decisione con troppa leggerezza. Per questi motivi è fondamentale che la spiegabilità abbia la stessa rilevanza che hanno accuratezza e robustezza nella creazione di modelli comprensibili e intuitivi. La spiegabilità dei sistemi di supporto alle decisioni cliniche (CDS) consentirebbe ai professionisti di fare scelte più informate (Hulsen, 2023).
IA in Sanità, l’apporto umano resta insostituibile
Ma è bene ricordare che l’apporto umano è insostituibile. Anche se un’IA può processare simultaneamente molte informazioni, snellire processi, automatizzare funzioni, migliora sì l’efficienza e la precisione ma mancherà del valore aggiunto portato dalla componente umana. Il bagaglio di competenze, esperienze, pensiero creativo e analitico del professionista non è equiparabile né rimpiazzabile.
È la combinazione di componenti umane e artificiali nel processo decisionale clinico ad essere la soluzione più efficace e lo sarà anche in futuro.
Bibliografia
Hulsen, T. (2023). Explainable artificial intelligence (XAI): concepts and challenges in healthcare. AI, 4(3), 652-666.
Taylor, J. E. T., & Taylor, G. W. (2021). Artificial cognition: How experimental psychology can help generate explainable artificial intelligence. Psychonomic Bulletin & Review, 28(2), 454-475.
Yang, S. C. H., Folke, N. E. T., & Shafto, P. (2022, June). A psychological theory of explainability. In International Conference on Machine Learning (pp. 25007-25021). PMLR.