scenari

L’AI può aiutare la sanità, ma serve giudizio (e se lo dice l’AI…)



Indirizzo copiato

L’Intelligenza Artificiale sta rivoluzionando l’ambito sanitario, promuovendo un avanzamento su più fronti – dalla refertazione radiologica all’assistenza ai pazienti. Esaminiamo, col contributo dell’AI stessa, le potenzialità, le sfide etiche e legali, e come le tecnologie emergenti possano ridefinire i confini dell’assistenza sanitaria

Pubblicato il 16 gen 2024

Alberto Ronchi

Presidente Aisis – Associazione Italiana Sistemi Informativi in Sanità



spazio europeo dati sanitari - decentralized health - FSE

Aoggi la diffusione dell’uso dell’intelligenza artificiale in sanità sembra privilegiare più una logica di adozione di prodotti consolidati che quella di una sperimentazione spinta delle novità. Un aspetto da ritenersi positivo perché abbassa il rischio di adottare troppo presto strumenti di non ancora provata efficacia in un settore che ha come obiettivo principale quello della salute delle persone.

Pensiamo ad esempio al riconoscimento vocale: gli algoritmi che interpretano la voce umana e il linguaggio parlato e lo traducono in testi sono sicuramente classificabili come AI, ma avendo ormai perso quell’aura di novità e di mistero che avvolge altri esempi di AI, non sono più visti con sospetto e nessuno dubita della loro reale utilità. Lo stesso potremmo dire dei chatbot che, pur con alterne fortune e con un’efficacia ancora da dimostrare pienamente, non sono più visti come una AI particolarmente avveniristica.

Esempi di uso all’avanguardia dell’AI in sanità

Questo non vuole dire che in sanità non ci siano esempi di uso all’avanguardia dell’AI: se ne trovano numerosissimi nella ricerca e anche nella pratica clinica, anche se confinati a sperimentazioni.

Il supporto alla refertazione radiologica

Uno di questi è il supporto alla refertazione radiologica, cioè il processo di interpretazione delle immagini mediche, come le radiografie, le TAC e le risonanze magnetiche. Algoritmi di machine learning possono automatizzare o supportare alcune delle attività della refertazione radiologica, come ad esempio identificare automaticamente certe anomalie nelle immagini e suggerire un’interpretazione preliminare delle stesse. Questo comporta un generale miglioramento dell’accuratezza e della consistenza delle diagnosi con conseguente riduzione del carico di lavoro dei radiologi e diversi studi hanno dimostrato entrambi questi effetti.

I chatbot evoluti per l’assistenza ai pazienti

Un altro esempio sono i chatbot evoluti per l’assistenza ai pazienti: l’AI può essere utilizzata per fornire assistenza virtuale ai pazienti, rispondendo alle domande, prenotando appuntamenti e fornendo anche un supporto emotivo. Tutto questo, se inserito nel paradigma di cura della sanità territoriale, può fornire un enorme aiuto ai medici e agli infermieri sul territorio.

La ricerca farmacologica

E ancora nella ricerca farmacologica l’AI può essere utilizzata come fattore accelerante, automatizzando compiti come l’analisi dei dati e la conseguente scoperta di nuove molecole, oppure nella futura medicina personalizzata: si prevede che l’unione dei dati genetici, medici e sullo stile di vita delle persone può portare ad una personalizzazione delle cure che permetterà cure mirate e migliori esiti, ma la quantità di dati è tale che solo con l’AI si riuscirà ad analizzarli in modo efficace, specie su popolazioni numerose.

Problemi legati all’uso dell’AI in sanità

L’uso dell’AI in generale e in sanità in particolare presenta una serie di problemi che, per la sanità, rientrano soprattutto in due grandi categorie: quelli legati all’eticità degli strumenti e quelli legati alla responsabilità legale delle decisioni prese.

L’eticità degli strumenti di AI in sanità

È un fatto ormai dimostrato da numerosi studi che certi sistemi di AI mostrano un fenomeno di bias, cioè di preferenza per certe classi di risultati che si riflette in una sottorappresentazione o esclusione totale di certe categorie (di persone, di dati, …). Questo avviene perché gli insiemi di dati su cui si addestrano le AI non sono completi o non sono sufficientemente grandi. Se questo fenomeno dovesse manifestarsi regolarmente con certe categorie di pazienti, verrebbe meno quel principio di universalità della cura e della salute sancito anche dalla nostra Costituzione.  

È pertanto indispensabile non solo addestrare le AI su insiemi di dati sempre più grandi e che mostrino il massimo della variabilità, ma anche e soprattutto anteporre all’uso in produzione una profonda analisi dei risultati su casi di test numerosi e che coprano tutte le possibilità.

La responsabilità legale

Per quanto attiene invece la responsabilità legale, al momento non è possibile affidare ad una AI (o ad un algoritmo qualunque anche meno complesso e sofisticato di una AI) la responsabilità delle decisioni relative alla salute di un paziente. Questa rimane una responsabilità del medico.

L’affidabilità e la spiegabilità dell’AI

L’AI può rimanere uno degli strumenti a disposizione del medico, ma deve essere sufficientemente affidabile affinchè il medico sia portato ad usarla. Una AI che commette errori grossolani, forse anche di frequente, porterà i medici a non fidarsi dello strumento e ad abbandonarlo. Per aumentare la fiducia nelle decisioni suggerite dalla AI si ritiene che il poter spiegare il processo di “ragionamento” della AI stessa sia un fattore decisivo.

Purtroppo questa è una sfida tecnica difficile: le AI si basano su algoritmi complessi e difficili da comprendere anche per gli esperti; inoltre la natura del processo di addestramento può opacizzare i processi di ragionamento delle AI, rendendo impossibile capire il perché di certi risultati. Ad oggi ci si può focalizzare su obiettivi di spiegazione più specifici (non è necessario che l’AI fornisca spiegazioni complete e dettagliate di tutte le decisioni prese, bastano spiegazioni sufficienti a capire le motivazioni di una decisione) oppure sfruttare l’intelligenza umana (una AI può chiedere feedback sulle sue spiegazioni per identificare i dati più rilevanti da usare in futuro nelle spiegazioni stesse).

Il futuro dell’AI in Sanità: prospettive e potenzialità

L’avvento di ChatGPT e delle GPT in genere ha scosso il mondo dell’AI a tal punto che molti considerano queste tecnologie come l’aspetto più importante dell’intelligenza artificiale o delle intelligenze artificiali: non è però vero che tutto debba essere fatto usando questi nuovi strumenti, perché, ad esempio, le tecniche migliori per il riconoscimento e l’analisi delle immagini sono ancora quelle di machine learning (in particolare deep learning).

Nel mondo della sanità c’è comunque un ampio spazio per l’uso delle GPT linguistiche (LLM, Large Language Models), considerando che, oltre alla buona salute del paziente, uno dei principali prodotti delle cure è un elevato numero di pagine di annotazioni, indicazioni, referti, comunicazioni e così via.

L’AI può aiutare in diverse fasi che comportano l’elaborazione di testi: nella fase di comprensione del parlato con una migliore comprensione del linguaggio naturale che va oltre l’interpretazione letterale o la mera trascrizione e tiene anche conto del contesto, dei dati a disposizione e di altri fattori; nella fase di produzione di testi tenendo conto dell’enorme mole di letteratura scientifica e referenziandola in base ai dati del caso specifico in esame; nella fase di controllo della documentazione prodotta aiutando nella ricerca non solo di errori formali ma anche di errori di coerenza interna e clinici.

Sul mercato ci sono già diversi LLM addestrati per il mondo della sanità, della cura e della ricerca medica, ma sono tipicamente modelli con un elevato numero di parametri (nell’ordine di miliardi e più) che quindi hanno bisogno di grandi risorse per essere addestrati e per funzionare, di conseguenza vivono solamente nel cloud.

In sanità però non sempre si gode del lusso di un’ottima connessione internet, cioè stabile e veloce, e questo non solo sul territorio, a casa dei pazienti o in mobilità, ma, a volte, anche all’interno delle strutture ospedaliere stesse. Inoltre non è detto che modelli di grandi dimensioni servano per tutti i casi d’uso: in alcuni casi potrebbero bastare modelli più piccoli, anche se meno precisi o meno veloci.

Per rispondere a queste esigenze, stanno nascendo modelli (anche Open Source) che esplorano la possibilità di usare poco spazio di memoria, e stare ad esempio in un cellulare o in un dispositivo IoT, o la possibilità di ridotti tempi e costi di addestramento, permettendo un apprendimento più veloce, ovvero continui cicli di addestramento.

Quando Meta (la parent company di Facebook e di Whatsapp) ha creato il suo LLM, chiamato LLaMA, ha pubblicato sotto licenza Open Source una versione ridotta del modello. Subito la comunità accademica ha iniziato a sperimentare i limiti tecnici dei modelli LLM e ha dimostrato, almeno a livello di studi sperimentali, la possibilità di modelli che girano su smartphone o che si addestrano in ore se non in minuti.

Questa è una delle frontiere della ricerca sulla AI e probabilmente la più promettente per garantire una diffusione capillare e un uso “sul campo” che sono tra le caratteristiche importanti per un uso pervasivo dell’AI in sanità.

Genesi dell’articolo

A chiusura dell’articolo devo confessare una cosa: l’articolo è stato (parzialmente) scritto usando l’intelligenza artificiale, anzi assegnando parti diverse a diverse intelligenze artificiali.

Quando ho cominciato a mettere in ordine le idee, avevo ben chiara una traccia generale e, in alcuni punti, dovevo solo “riempire i vuoti”: a questo punto sono stato tentato dal provare le AI generative per capire le loro possibilità e verificare di persona i risultati. Quindi mi sono fatto aiutare da varie AI disponibili in rete, tra cui ovviamente la capostipite ChatGPT.

Il risultato è stato buono e anche soddisfacente per certi versi, ma si sono resi necessari due passi ulteriori: il primo di controllo delle informazioni, perché è noto che non sempre le informazioni date dalle AI generative sono accurate, e il secondo di revisione dello stile di scrittura, che (a me) sembra sempre leggermente meccanico e che comunque è, nel bene o nel male, diverso dal proprio stile.

 È ovvio che eventuali inesattezze rimaste sono solo mie e non delle AI.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2