L’impiego dell’intelligenza artificiale si fa largo da anni nel settore sanitario con sempre maggiore incisività. Alla luce di un numero sempre più crescente di impieghi di tale tecnologia nella produzione di farmaci, nel diagnosticare una serie di malattie e nell’impiego in ambito chirurgico, l’“aurea di positività” che circonda l’Intelligenza Artificiale è sempre molto vasta. Se poi si pensa in termini di velocità, di accuratezza e di economicità del suo impiego nel settore sanitario, “non c’è partita”.
Ma è sempre e comunque possibile fidarsi di questa tecnologia quando si parla di salute? Beh, non proprio.
Il “paternalismo” dell’intelligenza artificiale
Molte di queste tecnologie, invero, presentano problemi ben noti. Sono addestrate, a volte, su pochi dati o su dati appartenenti ad una certa popolazione, genere o etnia, non funzionando a dovere, ad esempio, per le donne e le persone di colore, così come per altre persone. Parliamo, in questi casi, dei cosiddetti “bias” (o “pregiudizi”) dell’Intelligenza Artificiale. E poi c’è un altro problema. Quando queste tecnologie iniziano a infiltrarsi nei contesti sanitari, assistiamo ad un aumento del cosiddetto “Paternalismo dell’Intelligenza Artificiale”, ossia del pensare che tale tecnologia sia onnisciente e non possa essere messa in discussione. Il paternalismo in medicina è un problema che il settore si porta avanti da sempre (una sorta di “ipse dixit” insito nel sistema dalla comparsa dell’uomo). In parole povere, i medici potrebbero essere portati a fidarsi dell’Intelligenza Artificiale per partito preso, ossia a scapito del proprio giudizio clinico e delle esperienze vissute dai propri pazienti.
L’intelligenza artificiale nell’assistenza sanitaria
Com’è ampiamente risaputo, l’Intelligenza Artificiale viene già utilizzata da tempo nel settore dell’assistenza sanitaria. Alcuni ospedali usano la tecnologia per aiutare i pazienti nel triage. Altri la usano per effettuare diagnosi o per sviluppare piani di trattamento ad hoc per i propri pazienti. Ma la reale portata dell’adozione dell’Intelligenza Artificiale non è sempre cristallina. A volte, infatti, non sappiamo che tipo di sistemi vengono effettivamente utilizzati e in che modo. Sappiamo però che l’adozione di tale tecnologia è destinata ad aumentare con il suo miglioramento continuo e con la ricerca di modalità per ridurre i costi da parte dei vari sistemi sanitari nazionali. Il rischio, come accennato, è che diversi medici potrebbero già riporre molta fiducia in queste tecnologie. In uno studio pubblicato su Nature nel 2020, è stato chiesto ad alcuni oncologi di confrontare le loro diagnosi di tumore della pelle con le conclusioni tratte da un sistema di Intelligenza Artificiale sulla medesima tematica. Molti oncologi hanno accettato i risultati prodotti dall’Intelligenza Artificiale anche quando tali risultati contraddicevano il proprio parere clinico. C’è il rischio concreto di affidarsi a queste tecnologie “più del dovuto”. Ed è qui che potrebbe entrare in gioco il concetto del “paternalismo”.
Prendendo in esame un’espressione utilizzata di un recentissimo articolo scientifico, possiamo riassumere il concetto di paternalismo con la frase “the doctor knows best” (“il medico ne sa di più”). L’idea è che la sua formazione renda il medico la persona migliore per prendere una decisione per la persona che ha in cura, indipendentemente dai suoi sentimenti, dalle sue convinzioni, dalla sua cultura e da tutto ciò che può influenzare le sue scelte. Il paternalismo può emergere quando l’Intelligenza Artificiale viene posizionata come la più alta forma di evidenza, sostituendo il “medico onnisciente” con “l’Intelligenza Artificiale onnisciente”. Una sorta di tendenza umana che spinge in maniera pericolosa verso un futuro “paternalismo algoritmico” che potrebbe essere preponderante nei prossimi anni (se non preso per tempo).
L’IA non è infallibile
Questione che sarebbe problematica per una serie di ragioni. Innanzitutto, l’Intelligenza Artificiale non è infallibile. Queste tecnologie sono addestrate su serie storiche di dati che ha già dei loro difetti “ab origine”. Di conseguenza, l’Intelligenza Artificiale non può comprendere, ma solo prevedere. Ad esempio, l’Intelligenza Artificiale potrebbe essere addestrata per imparare quali modelli nelle biopsie di cellule cutanee sono stati associati a una diagnosi di cancro in passato; ma i medici che hanno fatto quelle diagnosi in passato e hanno raccolto quei dati potrebbero avere maggiori probabilità di non aver esaminato persone appartenenti a diverse etnie (esaminando, ad esempio, solo caucasici). E l’identificazione di casi passati non dirà necessariamente ai medici d’oggi tutto quello che c’è da sapere su come proseguire il trattamento per un determinato paziente. Oggi, medici e pazienti dovrebbero collaborare nelle decisioni terapeutiche. Ed i progressi nell’uso dell’Intelligenza Artificiale non dovrebbero diminuire l’autonomia del paziente (né accrescere quella della tecnologia).
Come limitare la deriva “assiomatica” dell’intelligenza artificiale
Una soluzione potenziale al rischio di una deriva “assiomatica” dell’Intelligenza Artificiale consiste nel progettare nuove tecnologie addestrate su dati migliori. Ad esempio, un algoritmo potrebbe essere addestrato sulla base di informazioni in merito a credenze o a desideri di varie comunità, oltre che su diversi dati biologici (puntando, ad esempio, a tutte le etnie e a tutti i generi). Insomma, per poter addestrare un’Intelligenza Artificiale al meglio, è necessario raccogliere tutti i dati utili allo scopo. Un’impresa “costosa” che probabilmente non piacerà a chi vuole usare l’Intelligenza Artificiale per tagliare i costi. I progettisti dei sistemi di Intelligenza Artificiale devono considerare attentamente le esigenze delle persone che saranno valutate da questi sistemi. E devono tenere presente che le tecnologie che funzionano per alcuni gruppi non funzionano necessariamente per altri, a causa della biologia o delle loro convinzioni.
Può sembrare un concetto pleonastico, ma gli esseri umani non sono tutti uguali, anzi. La migliore linea d’azione potrebbe essere quella di utilizzare queste nuove tecnologie nello stesso modo in cui utilizziamo quelle già consolidate da tempo. Le radiografie e le risonanze magnetiche vengono utilizzate per aiutare a formulare una diagnosi, insieme ad altre informazioni relative alla salute. Le persone dovrebbero poter scegliere se sottoporsi a una scansione e cosa fare dei risultati. In altre parole, è possibile utilizzare l’Intelligenza Artificiale senza cedere la nostra autonomia e senza affidarsi ad essa come fosse un “atto di fede”.