L’Intelligenza Artificiale (IA) è emersa come forza trasformativa in diversi settori, e la sua applicazione in ambito sanitario non fa eccezione.
L’uso dei Large Language Models in sanità
I Large Language Models (LLM) – in italiano “modelli di linguaggio di grandi dimensioni” – rappresentano una pietra miliare nello sviluppo dell’IA, in quanto consentono alle macchine di comprendere e generare un linguaggio simile a quello umano, con notevole coerenza e realismo. Tra questi modelli, il generative pre-trained transformer (GPT), e in particolare il modello GPT-3.5, ha attirato su di sé l’attenzione per la sua capacità di generare risposte complesse in più lingue, mentre i recenti progressi di GPT-4 ne hanno ampliato le capacità consentendo di caricare le immagini come input.
Questi modelli di IA hanno il potenziale per rivoluzionare il settore medico, ma è altrettanto importante comprendere il modo in cui i pazienti percepiscono e interagiscono con i contenuti generati da questi strumenti per poter integrarli all’interno delle strutture sanitarie.
Lo studio sui pazienti in trattamento per l’urolitiasi
In uno studio recentemente pubblicato su Journal of Digital Health, Seong Hwan Kim e altri autori hanno analizzato un caso di studio che coinvolge pazienti in trattamento per l’urolitiasi, una condizione caratterizzata dalla formazione di calcoli a carico dell’apparato urinario. Gli autori hanno approfondito il modo in cui i chatbot alimentati dall’IA, come ChatGPT versione 3.5, influenzano le percezioni dei pazienti prima e dopo aver ricevuto una nota con una spiegazione sulle modifiche dello stile di vita da adottare per prevenire le recidive di urolitiasi. Con questo studio si è voluto far luce sull’evoluzione del rapporto tra i pazienti e l’utilizzo dell’intelligenza artificiale in ambito sanitario.
Ai pazienti coinvolti nello studio è stato chiesto di compilare dei questionari tramite un sondaggio autosomministrato. Un primo questionario è stato erogato prima della spiegazione sulle modifiche dello stile di vita da adottare per prevenire le recidive di urolitiasi, mentre i questionari successivi sono stati distribuiti dopo che i pazienti avevano ricevuto la spiegazione generata da ChatGPT.
I criteri di inclusione prevedevano pazienti a cui era stata diagnosticata un’urolitiasi mediante tomografia computerizzata, sottoposti a un trattamento di ureterorenoscopia, e di età compresa tra 18 e 80 anni. I pazienti che non erano in grado di comprendere le indicazioni di ChatGPT, o di completare i questionari, sono stati esclusi.
È largamente condiviso che, attraverso l’introduzione dei chatbot basati su IA nel settore sanitario, si possa migliorare il coinvolgimento e la formazione dei pazienti. Tuttavia, i risultati dello studio citato hanno rilevato l’insorgenza di reazioni negative da parte dei pazienti, in particolare tra quelli con un livello di istruzione inferiore. Ciò suggerisce che questa categoria di pazienti potrebbe avere una percezione più negativa dei contenuti generati dall’IA, potenzialmente a causa dell’insufficiente comprensione del mondo digitale.
Cosa influenza la percezione dell’IA in ambito sanitario
Come per ogni tecnologia potenzialmente innovativa, la percezione dell’IA in ambito sanitario è influenzata da vari fattori, tra cui la natura della tecnologia stessa e le caratteristiche del singolo paziente. Tale influenza trova la sua giustificazione in uno dei fattori determinanti per la salute individuati dall’OMS – ovvero il livello di istruzione. Pertanto, sebbene l’IA abbia il potenziale per migliorare l’assistenza sanitaria e i risultati clinici dei pazienti, deve essere impiegata in modo ponderato per venire incontro alle esigenze dei pazienti a seconda del loro background educativo. Ciò è particolarmente importante in ambito medico, dove la totale fiducia riposta nelle informazioni generate dall’IA è fondamentale per il benessere di questi ultimi.
L’urolitiasi può avere un impatto significativo sulla salute fisica e mentale dei pazienti. Le modifiche dello stile di vita giocano un ruolo cruciale nella prevenzione dei calcoli, unitamente al rispetto di alcune norme dietetiche. I chatbot dotati di intelligenza artificiale, come ChatGPT, hanno il potenziale per facilitare la comprensione e il rispetto di queste raccomandazioni da parte dei pazienti, in quanto sono in grado di riassumere informazioni complesse e fornire indicazioni in modo semplice.
Il tema dell’affidabilità dei contenuti generati dall’IA
L’affidabilità dei contenuti generati dall’IA rimane comunque un tema scottante. I chatbot come ChatGPT si basano sulla raccolta di dati provenienti da Internet, i quali possono contenere imprecisioni ed errori. Uno degli aspetti fondamentali per evitare danni ai pazienti è sicuramente quello di garantire l’accuratezza e l’affidabilità delle informazioni mediche generate dall’IA.
Per questo motivo, i futuri sviluppi dei chatbot di IA dovrebbero dare priorità alla verifica dei contenuti medici per aumentarne l’affidabilità in ambito clinico. In questo senso, è necessario valutare la possibilità di lasciare che siano proprio i medici a programmare l’IA, al fine di garantire l’appropriatezza delle informazioni e delle relative risposte fornite agli utenti.
Nonostante le sfide suddette, i chatbot sono sempre più estesamente utilizzati per semplificare i compiti a bassa complessità e per migliorare il flusso di informazioni nell’ambito dell’assistenza sanitaria. Essi possono assistere i medici riassumendo le informazioni cliniche, gestendo la documentazione sanitaria e fornendo consigli basati sui dati evidence-based inseriti nel database. L’intelligenza artificiale generativa non può sostituire i medici umani e, per un suo impiego responsabile nel mondo della medicina, è necessario affrontare al più presto i problemi sull’accuratezza dei dati e la generazione di false informazioni.
Conclusioni
In conclusione, lo studio citato ha evidenziato come i pazienti percepiscono l’IA nell’ambito dell’assistenza sanitaria e il modo in cui questa percezione si evolve, in particolare nella gestione della urolitiasi. Come detto, i pazienti con un livello di istruzione più basso hanno espresso una valutazione negativa dopo aver ricevuto una spiegazione generata da ChatGPT. Sebbene i chatbot abbiano il potenziale per migliorare la conoscenza e il coinvolgimento dei pazienti, è necessario risolvere alcuni punti di frizione per poterli integrare in modo efficace.
Per migliorare la percezione dei pazienti e promuovere l’adozione responsabile dell’IA nell’assistenza sanitaria, occorre dunque impegnarsi per sviluppare interfacce di facile utilizzo, fornire informazioni chiare e accurate e dare priorità alla verifica autorevole dei contenuti medici. Sebbene i chatbot abbiano i loro limiti, il loro continuo sviluppo e perfezionamento promette di migliorare in futuro l’erogazione dell’assistenza sanitaria e i risultati clinici da essa derivanti.