sanità digitale

IA generativa per l’assistenza sanitaria: opportunità e rischi

Più le tecnologie sono potenti, più devono essere maneggiate con cura e, soprattutto, si deve evitare di fare gli apprendisti stregoni e utilizzare irresponsabilmente strumenti che possono, poi, rivelare lati oscuri, principalmente quando si tratta di salute

Pubblicato il 11 Mag 2023

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

thin garante

I modelli linguistici di AI sono un tipo di programma informatico che ha cambiato il modo in cui gli esseri umani interagiscono con le macchine. Grazie all’utilizzo di tecniche di apprendimento automatico, questi modelli sono in grado di analizzare e generare il linguaggio naturale, offrendo una vasta gamma di vantaggi in diversi settori. Particolarmente importanti sono le applicazioni in sanità perché i modelli linguistici di AI, essendo capaci di comprendere e analizzare il linguaggio naturale, possono diventare strumenti preziosi per la diagnosi e il trattamento delle malattie.

Le nuove frontiere dell’AI in Sanità dopo ChatGPT

Le caratteristiche dei modelli linguistici di AI

I modelli linguistici sono in grado di analizzare grandi quantità di dati, riconoscere schemi e relazioni tra le parole, utilizzando algoritmi di apprendimento automatico come la regressione logistica e le reti neurali. Ciò significa che questi modelli possono imparare dalle esperienze passate e utilizzare questi dati per migliorare le loro prestazioni.

Un’altra caratteristica importante dei modelli linguistici di AI è la loro capacità di generare linguaggio naturale e pertanto possono produrre testi coerenti e comprensibili, con uno stile adeguato al contesto. I modelli linguistici di AI sono anche in grado di analizzare il significato del testo, non solo la sua forma. Questa caratteristica si chiama analisi semantica e consente ai modelli di comprendere il contesto in cui una parola o una frase viene utilizzata. Ciò significa che questi modelli possono produrre risultati precisi e accurati, ad esempio nella traduzione automatica, dove il significato delle parole e delle frasi può variare a seconda del contesto.

Un’ulteriore importante caratteristica è la loro adattabilità, cioè il fatto che sono in grado di apprendere dai dati in tempo reale e di modificare i loro algoritmi, di conseguenza, adattandosi all’ ambiente e migliorando continuamente le loro prestazioni. Possono interagire con gli utenti in modo simile a un essere umano e possono essere utilizzati per sviluppare chatbot e assistenti virtuali in grado di assistere gli utenti in modo efficace. Ciò significa che questi modelli possono offrire una vasta gamma di applicazioni, ad esempio nell’assistenza sanitaria, nell’e-commerce e nel customer service. È una tecnologia in continua evoluzione, in grado di comprendere, generare e analizzare il linguaggio naturale in modo sempre più preciso e naturale.

Questi modelli, poiché offrono nuove opportunità per l’interazione uomo-macchina e per l’accesso alle informazioni, costituiscono un settore di business molto interessante, soprattutto in prospettiva. Quello delle chatbot per il servizio clienti è un mercato in rapida crescita e si prevede un tasso di aumento del 15% e un valore complessivo prossimo ai 10 miliardi di dollari nel 2023. La chatbot chiamata Nanci all’inizio era in grado di risolvere meno del 10 per cento delle richieste dei clienti, ma dopo due mesi il tasso di successo è salito al 50 per cento, per attestarsi a regime al 60 per cento. Come effetto di questi miglioramenti, il suo utilizzatore, General Motors, ha potuto dismettere il suo Call Center che impiegava 700 persone, costruendo, con un numero inferiore di addetti, un servizio call avanzato che doveva trattare solo i casi difficili.

L’uso in sanità dei modelli linguistici di AI

Particolarmente importanti, quindi, sono le applicazioni in sanità dei modelli linguistici di AI, che possono essere impiegati per analizzare grandi quantità di dati medici, come cartelle cliniche, report di laboratorio e altre fonti di informazioni, allo scopo di individuare pattern e relazioni nascoste che possono aiutare i medici a fare diagnosi più precise, possono anche essere utilizzati per sviluppare strumenti di assistenza virtuale, come chatbot e assistenti vocali, che possono interagire con i pazienti e fornire loro informazioni su sintomi, malattie e terapie.

Questi strumenti sono particolarmente utili per le persone che hanno difficoltà ad accedere ai servizi medici tradizionali, ad esempio coloro che vivono in zone remote o che hanno difficoltà di mobilità, possono essere utilizzati per la creazione di strumenti di monitoraggio remoto e per supportare la ricerca medica con l’analisi di grandi quantità di pubblicazioni scientifiche, al fine di individuare nuove terapie e nuove scoperte nella lotta contro le malattie. La tecnologia dell’intelligenza artificiale può essere utilizzata per fornire servizi sanitari automatizzati e migliorare l’efficienza del flusso di pazienti in un ospedale. Gli algoritmi di intelligenza artificiale possono esaminare i sintomi del paziente e consigliare opzioni diagnostiche, come visite virtuali o visite di persona con un operatore sanitario. Questo può ridurre il carico di lavoro del personale ospedaliero e ridurre i costi sanitari. Durante la pandemia di Covid-19, sono stati sviluppati chatbot per lo screening senza contatto dei sintomi di Covid-19 nelle istituzioni sanitarie e per fornire informazioni al pubblico. Queste chatbot sono state utilizzate anche dalle aziende farmaceutiche e di dispositivi medici per automatizzare i processi di assistenza ai clienti e fornire ai pazienti un’attenzione continua.

AI, la salute mentale non è roba per chatbot: ecco perché

Le Chatbot GPT

Le Chatbot GPT sono tra i più avanzati modelli linguistici di intelligenza artificiale. Open AI, azienda leader nel settore nei mesi scorsi ha rilasciato una chatbot realizzato con la tecnologia GPT-4, un modello AI di elaborazione linguistica all’avanguardia che è in grado di generare dei testi quasi indistinguibili da quelli elaborati dagli umani e ha un’ampia gamma di applicazioni, tra cui la traduzione linguistica, la modellazione linguistica e la generazione di testo per applicazioni come le chatbots. Con 175 miliardi di parametri, è uno dei più grandi e potenti modelli di intelligenza artificiale per l’elaborazione del linguaggio.

La chatbot Watson è utilizzata da Anthem che è uno dei più grandi produttori di servizi assicurativi in campo sanitario degli Stati Uniti. La chatbot viene utilizzata sia per dare informazioni amministrative sulle polizze, sia per dispensare consigli sanitari. Le chatbot evolute nell’assistenza sanitaria devono esser in grado di: monitorare il comportamento e gli stati d’animo del paziente, garantire la privacy, dare consigli personalizzati, essere in grado di acquisire dati da applicazioni di monitoraggio da sensori mobili, utilizzare, se necessario il riconoscimento facciale e interagire sia istantaneamente con risposte immediate, sia in seguito con notifiche e promemoria. Watson è perfettamente in grado di svolgere in maniera efficiente tutte queste funzioni.

Potenzialità e rischi dell’Affective computing

Vi sono infine delle chatbot che forniscono assistenza per la salute mentale e sono anche addestrate per fornire una prima forma di terapia cognitivo-comportamentale. Woebot è una chatbot terapeutica che possiamo tranquillamente scaricare e che permette di simulare il divano di uno psicoterapeuta attraverso lo schermo di uno smartphone. L’app si presenta come una sorta di terapista digitale che può sostituire quello reale quando vi è un’impossibilità a poter fruire di uno reale, impossibilità che può essere legata a semplici contingenze logistiche o può essere anche dovuta ad una impossibilità a sostenere le spese di una cura psicoanalitica.

Il numero dei suoi utenti sta crescendo esponenzialmente, come esponenzialmente sta crescendo il numero delle app che curano la salute mentale e che oggi possono essere quantificate in una cifra superiore a 10.000. La caratterista di Woebot, che rende questa app, rilasciata nel 2017, particolare, è che utilizza l’intelligenza artificiale per realizzare attraverso un approccio psicoanalitico di tipo cognitivo-comportamentale delle terapie contro l’ansia e la depressione. La terapia cognitivo comportamentale è basata su un approccio che cerca di aiutare le persone a identificare il loro modo distorto di pensare, aiutandoli a capire come ciò influenzi il loro comportamento in modo negativo. Con il cambiamento di questi schemi autodistruttivi, i terapeuti tentano di curare i sintomi della depressione e dell’ansia. Woebot apprende continuamente da tutti coloro con cui entra in contatto ed in grado di elaborare un linguaggio e una conversazione naturali che tiene conto anche delle sessioni passate. Woebot chiede all’utente che gli venga dedicata almeno una sessione giornaliera di conversazione.

Accanto a Woebot abbiamo, ad esempio, delle app che spaziano dalla meditazione guidata (Headspace) e dal monitoraggio dell’umore (MoodKit) alla terapia attuata mediante dei testi da parte di psicologi (Talkspace, BetterHelp).

Queste considerazioni fanno intuire quali sconfinate possibilità e potenzialità si racchiudano all’interno dell’Affective Computing, ma anche quali enormi rischi connessi con l’utilizzo di app come Woebot che non si limitano a rivelare emozioni umane, ma che hanno anche la possibilità di interagire in maniera dinamica e relazionale con l’essere umano. Queste app potrebbero essere molto utili nella terapia per le diverse forma di autismo e potrebbero anche, essere utilizzate per dare alcuni servizi elementari di assistenza a persone che hanno problemi di mobilità, ma presentano come vedremo in seguito dei rischi.

I nodi etici

L’utilizzo delle chatbot nel campo medico e nella cura dei pazienti presenta diverse questioni etiche da prendere in considerazione.

Un primo rischio è che queste applicazioni, poiché sono basate sull’intelligenza artificiale, possano divergere dal loro utilizzo programmato e diventare potenzialmente molto pericolose. Infatti, potrebbero sviluppare dei bias che portano a rendere patologica l’interazione con gli esseri umani e, se in mano a soggetti deboli psicologicamente, potrebbe ro condizionare i loro comportamenti al punto da portarli a compiere gesti estremi. Un software emozionale potrebbe anche arrivare a consigliare il suicidio ad una persona fortemente depressa e un software emozionale, opportunamente programmato, potrebbe anche trasformare un individuo psicologicamente debole in un serial killer.

Inoltre, le informazioni fornite dalle chatbots potrebbero non essere sempre accurate o affidabili, a seconda delle fonti di alimentazione dei dati. Questa situazione potrebbe rappresentare un rischio per la qualità dell’assistenza sanitaria fornita ai pazienti. Ad esempio, il modello ChatGPT ha una copertura dati fino al 2021 e non include riferimenti con le risposte, il che potrebbe compromettere l’approccio basato sull’evidenza.

Un ulteriore rischio è legato alla quantità sempre crescente di dati dei pazienti che vengono utilizzati nell’apprendimento automatico per migliorare la precisione delle chatbot e che potrebbe causare problemi di privacy. In questo senso, la crittografia omomorfa potrebbe essere una soluzione utile nel settore sanitario. Questa tecnologia consente ai dati di essere criptati e i calcoli di essere eseguiti senza la necessità di decifrare i dati, consentendo alle chatbot di apprendere senza accedere alle informazioni personali dei pazienti.

Il progresso nella tecnologia del Deep Learning (DL) e dei modelli di linguaggio come ChatGPT ha creato nuove opportunità nell’ambito dell’assistenza sanitaria. Tuttavia, l’impiego di tali tecnologie richiede una valutazione attenta e ponderata per garantire la messa in atto di adeguate misure di protezione contro usi potenzialmente dannosi, come la sostituzione del parere di un esperto medico. Una soluzione potrebbe consistere nella previsione di un avviso automatico attivato dalle richieste di consulenza medica o dalla visualizzazione di termini specifici per ricordare agli utenti che i risultati del modello non rappresentano né sostituiscono la consulenza medica professionale. È importante considerare che queste tecnologie stanno evolvendo a un ritmo molto più veloce delle autorità di regolamentazione, dei governi e dei sostenitori. Pertanto, tutte le parti interessate – sviluppatori, scienziati, etici, operatori sanitari, fornitori, pazienti, sostenitori, autorità di regolamentazione e agenzie governative – devono collaborare per individuare la strada migliore da seguire. In un contesto normativo attento e costruttivo, i modelli di linguaggio basati sul DL potrebbero avere un impatto trasformativo sull’assistenza sanitaria, aumentando, invece di sostituire, le competenze umane e migliorando, in ultima analisi, la qualità della vita dei pazienti.

Conclusioni

In Italia il Garante della Privacy aveva imposto un blocco temporaneo all’uso di ChatGPT, con considerazioni simili a quelle precedentemente esposte sui rischi dello strumento, chiedendo ad OpenAI di dare determinate garanzie in relazione alla tutela degli utenti. È stata la prima decisione in questo senso di un Authority a livello internazionale. Se per un verso questa misura è stata poco utile a limitare l’uso dello strumento, perché anche un principiante oggi sa usare una VPN e può facilmente aggirare la limitazione, tuttavia è importante in termini di segnale perché costituisce un warning importante sull’utilizzo indiscriminato dell’algoritmo.

ChatGpt, la privacy ha vinto. Pizzetti: “Grande occasione di confronto sul valore dei nostri dati”

È di questi giorni la notizia che GTP4 ha accusato di pedofilia un professore australiano, notizia rivelatasi totalmente falsa, dimostrando che dalle imprecisioni di GPT4 possono derivare danni molto rilevanti alle persone. Più le tecnologie sono potenti, più devono essere maneggiate con cura e, soprattutto, si deve evitare di fare gli apprendisti stregoni e utilizzare irresponsabilmente strumenti che possono, poi, rivelare lati oscuri. Si tratta quindi di vigilare affinché le tecnologie dell’intelligenza artificiale siano benevolenti e dal loro uso non possa derivare nessun danno alla società. È questa la sfida che l’umanità dovrà affrontare nei prossimi anni.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati