Aoggi la diffusione dell’uso dell’intelligenza artificiale in sanità sembra privilegiare più una logica di adozione di prodotti consolidati che quella di una sperimentazione spinta delle novità. Un aspetto da ritenersi positivo perché abbassa il rischio di adottare troppo presto strumenti di non ancora provata efficacia in un settore che ha come obiettivo principale quello della salute delle persone.
Pensiamo ad esempio al riconoscimento vocale: gli algoritmi che interpretano la voce umana e il linguaggio parlato e lo traducono in testi sono sicuramente classificabili come AI, ma avendo ormai perso quell’aura di novità e di mistero che avvolge altri esempi di AI, non sono più visti con sospetto e nessuno dubita della loro reale utilità. Lo stesso potremmo dire dei chatbot che, pur con alterne fortune e con un’efficacia ancora da dimostrare pienamente, non sono più visti come una AI particolarmente avveniristica.
Esempi di uso all’avanguardia dell’AI in sanità
Questo non vuole dire che in sanità non ci siano esempi di uso all’avanguardia dell’AI: se ne trovano numerosissimi nella ricerca e anche nella pratica clinica, anche se confinati a sperimentazioni.
Il supporto alla refertazione radiologica
Uno di questi è il supporto alla refertazione radiologica, cioè il processo di interpretazione delle immagini mediche, come le radiografie, le TAC e le risonanze magnetiche. Algoritmi di machine learning possono automatizzare o supportare alcune delle attività della refertazione radiologica, come ad esempio identificare automaticamente certe anomalie nelle immagini e suggerire un’interpretazione preliminare delle stesse. Questo comporta un generale miglioramento dell’accuratezza e della consistenza delle diagnosi con conseguente riduzione del carico di lavoro dei radiologi e diversi studi hanno dimostrato entrambi questi effetti.
I chatbot evoluti per l’assistenza ai pazienti
Un altro esempio sono i chatbot evoluti per l’assistenza ai pazienti: l’AI può essere utilizzata per fornire assistenza virtuale ai pazienti, rispondendo alle domande, prenotando appuntamenti e fornendo anche un supporto emotivo. Tutto questo, se inserito nel paradigma di cura della sanità territoriale, può fornire un enorme aiuto ai medici e agli infermieri sul territorio.
La ricerca farmacologica
E ancora nella ricerca farmacologica l’AI può essere utilizzata come fattore accelerante, automatizzando compiti come l’analisi dei dati e la conseguente scoperta di nuove molecole, oppure nella futura medicina personalizzata: si prevede che l’unione dei dati genetici, medici e sullo stile di vita delle persone può portare ad una personalizzazione delle cure che permetterà cure mirate e migliori esiti, ma la quantità di dati è tale che solo con l’AI si riuscirà ad analizzarli in modo efficace, specie su popolazioni numerose.
Problemi legati all’uso dell’AI in sanità
L’uso dell’AI in generale e in sanità in particolare presenta una serie di problemi che, per la sanità, rientrano soprattutto in due grandi categorie: quelli legati all’eticità degli strumenti e quelli legati alla responsabilità legale delle decisioni prese.
L’eticità degli strumenti di AI in sanità
È un fatto ormai dimostrato da numerosi studi che certi sistemi di AI mostrano un fenomeno di bias, cioè di preferenza per certe classi di risultati che si riflette in una sottorappresentazione o esclusione totale di certe categorie (di persone, di dati, …). Questo avviene perché gli insiemi di dati su cui si addestrano le AI non sono completi o non sono sufficientemente grandi. Se questo fenomeno dovesse manifestarsi regolarmente con certe categorie di pazienti, verrebbe meno quel principio di universalità della cura e della salute sancito anche dalla nostra Costituzione.
È pertanto indispensabile non solo addestrare le AI su insiemi di dati sempre più grandi e che mostrino il massimo della variabilità, ma anche e soprattutto anteporre all’uso in produzione una profonda analisi dei risultati su casi di test numerosi e che coprano tutte le possibilità.
La responsabilità legale
Per quanto attiene invece la responsabilità legale, al momento non è possibile affidare ad una AI (o ad un algoritmo qualunque anche meno complesso e sofisticato di una AI) la responsabilità delle decisioni relative alla salute di un paziente. Questa rimane una responsabilità del medico.
L’affidabilità e la spiegabilità dell’AI
L’AI può rimanere uno degli strumenti a disposizione del medico, ma deve essere sufficientemente affidabile affinchè il medico sia portato ad usarla. Una AI che commette errori grossolani, forse anche di frequente, porterà i medici a non fidarsi dello strumento e ad abbandonarlo. Per aumentare la fiducia nelle decisioni suggerite dalla AI si ritiene che il poter spiegare il processo di “ragionamento” della AI stessa sia un fattore decisivo.
Purtroppo questa è una sfida tecnica difficile: le AI si basano su algoritmi complessi e difficili da comprendere anche per gli esperti; inoltre la natura del processo di addestramento può opacizzare i processi di ragionamento delle AI, rendendo impossibile capire il perché di certi risultati. Ad oggi ci si può focalizzare su obiettivi di spiegazione più specifici (non è necessario che l’AI fornisca spiegazioni complete e dettagliate di tutte le decisioni prese, bastano spiegazioni sufficienti a capire le motivazioni di una decisione) oppure sfruttare l’intelligenza umana (una AI può chiedere feedback sulle sue spiegazioni per identificare i dati più rilevanti da usare in futuro nelle spiegazioni stesse).
Un pò di storia dell’AI
La storia dell’intelligenza artificiale (in inglese Artificial Intelligence, da cui la sigla AI) si può addirittura far risalire agli albori della filosofia: già nel quarto secolo avanti Cristo, Platone e Aristotele discutevano della possibilità di creare macchine in grado di pensare; saltiamo in avanti di circa 20 secoli e René Descartes ipotizza l’esistenza di un “cervello artificiale” che potesse replicare il funzionamento del cervello umano.
I primi veri progressi nell’AI si sono avuti però solo nel ventesimo secolo con l’avvento delle scienze dell’informazione e dei calcolatori. Nel 1936 Alan Turing propone il test che prende il suo nome per valutare l’intelligenza di un computer e ritenerla alla pari di quella umana; questo test probabilmente ha oggi perso molta della sua importanza ma rimane una pietra miliare nell’idea che i computer possano imitare l’intelligenza umana. Nel 1956, durante una storica conferenza al Dartmouth College, John McCarthy, Marvin Minsky, Claude Shannon e altri ricercatori, descrivono meglio il concetto di “computer intelligente” e coniano il termine “intelligenza artificiale”.
Gli anni seguenti vedono numerosi tentativi di rendere concrete le idee sull’AI, sviluppando sistemi basati su regole, antesignani dei sistemi esperti degli anni 80, o semplicemente sistemi basati su algoritmi tradizionali; tra questi tentativi spicca l’idea di imitare il cervello umano e i suoi neuroni, con le cosiddette reti neurali, idea che però si scontra con le limitazioni dei computer dell’epoca. Queste limitazioni, unite alla difficoltà di sviluppare algoritmi efficienti e di portata generale, cioè che permettano la General AI, un’intelligenza artificiale capace di ragionare come un cervello umano, portano ad un rallentamento delle ricerche sulla AI.
Un punto di svolta si ha verso la fine degli anni 80, quando Hinton, Rumelhart e Williams pubblicano un articolo sull’algoritmo di backpropagation, fondamentale per addestrare le reti neurali e aprire la strada alla loro diffusione, anche se è necessario aspettare gli anni 2000, con l’avvento delle grandi risorse computazionali del cloud pubblico, per vedere realizzate in concreto le prime reti neurali e assistere alla nascita del machine learning e alla conseguente rinascita dell’interesse per l’AI.
Diventa anche sempre più evidente che il termine AI comprende in realtà tutta una serie di metodi e discipline che hanno in comune lo stesso scopo: cercare di simulare e superare l’intelligenza umana, anche se profondamente diversi negli approcci metodologici e nelle tecniche applicate. Approcci diversi a tal punto che i modelli GPT (Generative Pre-training Transformer) ovvero modelli particolari, addestrati su un’enorme quantità di dati di testo e in grado di generare testo e rispondere alle domande in modo plausibile, sono considerati una AI diversa da tutte quelle che li hanno preceduti.
L’impatto delle GPT è stato significativo perché sono in grado di creare contenuti in apparenza originali, come ad esempio storie, poesie, pezzi di linguaggio di programmazione, traduzioni e riescono a rispondere a domande in linguaggio naturale in modo convincente: quindi rispondono a tutti i criteri che richiede il test di Turing. Ciò nonostante non le riteniamo ancora alla pari con l’intelligenza umana, probabilmente perché sbagliano ancora molto (fenomeno delle allucinazioni) e perché siamo consapevoli che, in fondo, le GPT non sono altro che dei grandi generatori statistici di testo.
Il futuro dell’AI in Sanità: prospettive e potenzialità
L’avvento di ChatGPT e delle GPT in genere ha scosso il mondo dell’AI a tal punto che molti considerano queste tecnologie come l’aspetto più importante dell’intelligenza artificiale o delle intelligenze artificiali: non è però vero che tutto debba essere fatto usando questi nuovi strumenti, perché, ad esempio, le tecniche migliori per il riconoscimento e l’analisi delle immagini sono ancora quelle di machine learning (in particolare deep learning).
Nel mondo della sanità c’è comunque un ampio spazio per l’uso delle GPT linguistiche (LLM, Large Language Models), considerando che, oltre alla buona salute del paziente, uno dei principali prodotti delle cure è un elevato numero di pagine di annotazioni, indicazioni, referti, comunicazioni e così via.
L’AI può aiutare in diverse fasi che comportano l’elaborazione di testi: nella fase di comprensione del parlato con una migliore comprensione del linguaggio naturale che va oltre l’interpretazione letterale o la mera trascrizione e tiene anche conto del contesto, dei dati a disposizione e di altri fattori; nella fase di produzione di testi tenendo conto dell’enorme mole di letteratura scientifica e referenziandola in base ai dati del caso specifico in esame; nella fase di controllo della documentazione prodotta aiutando nella ricerca non solo di errori formali ma anche di errori di coerenza interna e clinici.
Sul mercato ci sono già diversi LLM addestrati per il mondo della sanità, della cura e della ricerca medica, ma sono tipicamente modelli con un elevato numero di parametri (nell’ordine di miliardi e più) che quindi hanno bisogno di grandi risorse per essere addestrati e per funzionare, di conseguenza vivono solamente nel cloud.
In sanità però non sempre si gode del lusso di un’ottima connessione internet, cioè stabile e veloce, e questo non solo sul territorio, a casa dei pazienti o in mobilità, ma, a volte, anche all’interno delle strutture ospedaliere stesse. Inoltre non è detto che modelli di grandi dimensioni servano per tutti i casi d’uso: in alcuni casi potrebbero bastare modelli più piccoli, anche se meno precisi o meno veloci.
Per rispondere a queste esigenze, stanno nascendo modelli (anche Open Source) che esplorano la possibilità di usare poco spazio di memoria, e stare ad esempio in un cellulare o in un dispositivo IoT, o la possibilità di ridotti tempi e costi di addestramento, permettendo un apprendimento più veloce, ovvero continui cicli di addestramento.
Quando Meta (la parent company di Facebook e di Whatsapp) ha creato il suo LLM, chiamato LLaMA, ha pubblicato sotto licenza Open Source una versione ridotta del modello. Subito la comunità accademica ha iniziato a sperimentare i limiti tecnici dei modelli LLM e ha dimostrato, almeno a livello di studi sperimentali, la possibilità di modelli che girano su smartphone o che si addestrano in ore se non in minuti.
Questa è una delle frontiere della ricerca sulla AI e probabilmente la più promettente per garantire una diffusione capillare e un uso “sul campo” che sono tra le caratteristiche importanti per un uso pervasivo dell’AI in sanità.
Genesi dell’articolo
A chiusura dell’articolo devo confessare una cosa: l’articolo è stato (parzialmente) scritto usando l’intelligenza artificiale, anzi assegnando parti diverse a diverse intelligenze artificiali.
Quando ho cominciato a mettere in ordine le idee, avevo ben chiara una traccia generale e, in alcuni punti, dovevo solo “riempire i vuoti”: a questo punto sono stato tentato dal provare le AI generative per capire le loro possibilità e verificare di persona i risultati. Quindi mi sono fatto aiutare da varie AI disponibili in rete, tra cui ovviamente la capostipite ChatGPT.
Il risultato è stato buono e anche soddisfacente per certi versi, ma si sono resi necessari due passi ulteriori: il primo di controllo delle informazioni, perché è noto che non sempre le informazioni date dalle AI generative sono accurate, e il secondo di revisione dello stile di scrittura, che (a me) sembra sempre leggermente meccanico e che comunque è, nel bene o nel male, diverso dal proprio stile.
È ovvio che eventuali inesattezze rimaste sono solo mie e non delle AI.