Uno dei principali problemi quando sia approccia l’intelligenza artificiale in generale, e nel settore sanitario in particolare, è quello di capirne i limiti e ammettere la possibilità che dalle elaborazioni possano emergere degli errori. Troppo spesso i software di deep learning vengono enfatizzati e le loro capacità sovrastimate. Si è, infatti, diffusa la convinzione che l’intelligenza artificiale possa essere la panacea di ogni male e possa risolvere in maniera semplice e veloce problemi complessi.
Intelligenza artificiale e sacralità del dato
L’eccessivo ottimismo sulle capacità quasi taumaturgiche dell’intelligenza artificiale può portare fuori strada quando si tratta di studiare applicazioni nuove e, in campo sanitario, può condurre a errori che poi impattano pesantemente sui pazienti. Per governare uno strumento, soprattutto se di grande potenzialità, occorre conoscerne attentamente i limiti. Rispetto all’intelligenza artificiale vi sono oggi due approcci diametralmente opposti al problema.
L’intelligenza artificiale nella “salute circolare”: opportunità, sfide e passi concreti
Da un lato vi sono i tecno-pessimisti che vedono solo scenari distopici e vivono con apprensione il progresso tecnologico enfatizzando i pericoli e dall’altro i tecno-ottimisti che, invece, tendono a sopravvalutare gli effetti positivi arrivando ad attribuire virtù quasi taumaturgiche al progresso tecnologico.
Per governare correttamente le capacità predittive dell’intelligenza artificiale non si può prescindere dai dati. La lezione che qualunque studente del primo anno di fisica deve imparare, se vuole continuare con profitto il suo corso ed avere una buona probabilità di raggiungere la laurea, è la sacralità del dato. È il dato dell’esperimento il materiale che può supportare tutte le successive considerazioni e se il dato non è buono tutto il castello che si costruisce sopra cade con facilità.
Tanti dati non implicano un buon risultato: la lezione del Covid
Questa lezione non è sempre presente quando si cerca di applicare l’intelligenza artificiale ai più svariati settori. La facilità di uso dello strumento può trarre in inganno e far pensare che basti avere grandi quantità di dati per raggiungere attraverso il deep learning un buon risultato. È la potenza dello strumento a trarre in inganno e a far credere che l’intelligenza artificiale assomigli a una scatoletta in cui basti inserire dei dati per ricavare un buon risultato. Questa falsa credenza si è molto diffusa nella comunità scientifica, soprattutto in campo medico, durante la pandemia di Covid 19. Sono stati elaborati un numero estremamente elevato di algoritmi che si proponevano di predire aspetti legati alla pandemia da Covid 19 per poter tentare di combatterla efficacemente. Facendo però un’analisi retrospettiva quello che emerge, purtroppo, è che delle centinaia o migliaia di strumenti di intelligenza artificiale pensati per riuscire a gestire meglio la pandemia, in realtà quelli che sono riusciti a superare il test clinico, ossia l’impatto concreto con la realtà ospedaliera, si possono contare con la metà delle dita di una mano.
IA e covid: la montagna ha partorito un topolino
Ciò significa che lo sforzo ciclopico di elaborazione di soluzioni alla fine ha partorito un topolino. La quasi totalità delle applicazioni ha avuto un impatto nullo rispetto allo scopo di migliorare la gestione della pandemia. Hanno fallito gli algoritmi di previsione della probabilità di aggravamento dei pazienti, hanno fallito i programmi di diagnosi rapida e precoce, hanno fallito i modelli di previsione della diffusione dell’epidemia. Un altro fatto ormai ben noto è che gli algoritmi possono sviluppare dei bias, cioè delle false rappresentazioni che possono inficiare il risultato finale. Ad esempio un algoritmo di Ai che stima la probabilità di recidiva di un condannato può sviluppare un bias razziale assegnando una probabilità di recidiva minore ad un pregiudicato di razza bianca.
La qualità del dato
L’origine di questi fallimenti va ricercata nella qualità del dato che viene usato per addestrare gli algoritmi. Spesso con leggerezza si effettua il machine learning con dati non controllati, o non verificati, o di scarsa qualità. Un database di scarsa qualità è già il primo passo verso un fallimento certo. Come dicevo prima, ai fisici viene insegnata da subito la sacralità del dato negli esperimenti. Lo scienziato diventa il sacerdote che trasforma l’osservazione della realtà e la sua misurazione in un dato che ne deve riprodurre fedelmente le caratteristiche. Lo studio della qualità dei dati e delle condizioni di errore diventa, quindi il prerequisito di ogni ulteriore elaborazione. Nel caso del Covid questo non è mai successo, vuoi per l’ansia di avere strumenti in grado di combattere questa malattia, vuoi per la mancanza di database contenenti dati omogenei e certificati.
Si sono creati database “Frankenstein” che derivavano dall’aggregazione di basi di dati diverse, non omogenee e soprattutto costituite da dati raccolti con metodologie e strumenti diversi. Molti strumenti, inoltre, sono stati sviluppati da ricercatori di IA che mancavano delle competenze mediche per individuare difetti nei dati o da ricercatori medici che mancavano delle capacità matematiche per gestire i problemi della raccolta dei dati.
Le informazioni sui pazienti covid, comprese le scansioni mediche, sono state, inoltre, raccolte e condivise durante la pandemia a partire dalla prassi quotidiana dei reparti che, in alcuni momenti di picco dell’epidemia, diventava enormemente complessa da gestire. I ricercatori volevano acquisire velocemente dei dati, ma questo significava aggregare dati derivanti da osservazioni differenti o spesso dati provenienti da fonti sconosciute. Per fare un esempio si sono utilizzati involontariamente dei set di dati che contenevano scansioni polmonari di bambini che non avevano covid come archetipi di casi non covid. Ma di conseguenza, l’algoritmo di Intelligenza artificiale ha imparato a identificare i bambini, non il covid!
Conclusioni
Se vogliamo, quindi, evitare il fallimento dei modelli di AI, dobbiamo cercare una solida metodologia di costruzione e di analisi dei dati, dobbiamo creare dei database standardizzati e dobbiamo far precedere una seria analisi sulla qualità del dato alla costruzione degli algoritmi. È un lavoro certosino e meno gratificante, ma necessario, perché un set di dati di scarsa qualità produce previsioni scadenti e in sanità questo si ripercuote pesantemente sui pazienti.