L’analisi tramite algoritmi di apprendimento automatico basati sull’intelligenza artificiale permette di estrarre dai social informazioni di carattere medico che sono spesso trascurate o difficili da ottenere quando ci si basa principalmente sui dati dei rapporti medici e sulle cartelle cliniche. Questo è anche un modo per ottenere dati più rapidamente che con i tradizionali studi epidemiologici, che per loro natura richiedono molto tempo per essere completati.
Questa procedura si sta diffondendo negli Usa per esaminare diversi aspetti legati all’ambito sanitario: dagli effetti avversi dei farmaci alle stime dei tassi di suicidio. Ma non mancano critiche e problemi.
Medicina di precisione: come l’IA sta migliorando lo studio delle aritmie
I vantaggi della procedura
Il vantaggio di questa procedura, oltre alla velocità, è quindi quello di poter accedere ad informazioni che vengono rilasciate dagli individui in un contesto particolarmente rilassato e che possono essere differenti da quelle che gli stessi soggetti forniscono durante le visite mediche.
Queste informazioni sono sicuramente complementari a quelle delle interviste mediche vere e proprie e, pertanto, sono importanti per integrare quelle già in possesso dei sanitari, ma possono essere molto utili in relazione a quella parte della popolazione che manifesta una certa ritrosia ad affidarsi alle cure dei sanitari.
Potrebbero, inoltre, fare emergere anche delle fake news diffuse in rete rispetto ad alcune patologie o mettere anche in luce degli errori nella gestione delle patologie quando queste vengono curate in automedicazione e senza l’intervento dei sanitari.
I diversi usi dell’analisi semantica IA
L’analisi semantica con l’utilizzo dell’intelligenza artificiale è sicuramente uno dei campi più studiati per le sue molteplici ricadute.
Infatti, può essere utilizzata, oltre che in campo aziendale per individuare e caratterizzare i bisogni e i comportamenti di consumo, anche in campo legale, per la semantica dei registri di cancelleria o per individuare i temi più rilevanti all’interno di fascicoli complessi. Non ultimo, l’uso per la realizzazione di programmi inclusivi che mirano a contribuire al superamento di alcune disabilità fisiche, sensoriali e intellettive.
Tra le diverse applicazioni dell’analisi semantica può essere anche ricordata la sperimentazione del Corecom della Calabria per la realizzazione di un sistema di monitoraggio e controllo delle trasmissioni televisive e radiofoniche basato sulle capacità di analisi delle registrazioni delle trasmissioni fatta con l’ausilio dell’intelligenza artificiale.
Le sperimentazioni effettuate in campo medico
Le sperimentazioni queste metodologie in campo sanitario hanno riguardato diversi aspetti.
Il primo è quello della segnalazione degli effetti avversi dei farmaci. È stato verificato è che i medici spesso tendono a segnalare solo gli effetti collaterali più gravi tralasciando quelli lievi. In questo modo si verifica una sovrarappresentazione degli effetti gravi rispetto quelli lievi, pur sempre fastidiosi e che possono incidere fortemente sulla continuità delle cure. Dall’analisi dei social possono facilmente emergere questi effetti, che spesso vengono raccontati dagli utenti ai loro follower.
In particolare, alla Emory University è stato sviluppato un programma per estrarre dai post dei social media delle informazioni sugli effetti collaterali della buprenorfina, un farmaco per aiutare i consumatori di oppioidi a superare l’astinenza. Lo studio ha mostrato che vi era una preoccupazione tra gli iscritti a Reddit in relazione a dei sintomi estremi di astinenza che si manifestavano nelle persone che facevano uso di fentanyl, una droga che è sempre più mescolata con l’eroina.
In campo oncologico, è stato progettato in Francia un algoritmo di apprendimento automatico per aiutare gli operatori sanitari ad avere informazioni utili a comprendere meglio le esigenze delle donne con il cancro al seno. Il programma ha studiato i problemi che emergevano dalle conversazioni dei pazienti con cancro su Facebook e su cancerdusein.org. I risultati sono stati poi confrontati con le informazioni che potevano essere estratte dal questionario utilizzato dall’Organizzazione Europea per la Ricerca e il Trattamento del Cancro per valutare la qualità della vita dei pazienti con cancro al seno. I ricercatori hanno scoperto che c’erano argomenti di preoccupazione per i pazienti che il questionario non stava affatto esplorando.
Infine, i ricercatori del Centers for Disease Control and Prevention e del Georgia Institute of Technology hanno combinato i dati dei social media e le fonti epidemiologiche più tradizionali nel tentativo di migliorare la precisione e la tempestività delle stime dei tassi di suicidio nazionali e hanno scoperto che con l’utilizzo di questi dati le previsioni diventavano molto più precise e accurate.
Il rischio di database “Frankenstein”
Queste applicazioni sono molto promettenti, tuttavia non bisogna dimenticare che la facilità di uso dello strumento può trarre in inganno e far pensare che basti avere grandi quantità di dati per raggiungere attraverso il deep learning un buon risultato. È la potenza dello strumento a trarre in inganno e a far credere che l’intelligenza artificiale assomigli ad una scatoletta in cui basti inserire dei dati per ricavare un buon risultato.
Spesso con leggerezza si effettua il machine learning con dati non controllati, o non verificati, o di scarsa qualità. Un database di scarsa qualità è già il primo passo verso un fallimento certo.
Lo studio della qualità dei dati e delle condizioni di errore diventa, quindi il prerequisito di ogni ulteriore elaborazione.
Occorre evitare il rischio di creare database “Frankenstein” che derivavano dall’aggregazione di basi di dati diverse, non omogenee e soprattutto costituite da dati raccolti con metodologie e strumenti diversi.
Conclusioni
Se vogliamo, quindi, evitare il fallimento di questi modelli di AI applicati al campo sanitario, dobbiamo cercare una solida metodologia di costruzione e di analisi dei dati, creare dei database standardizzati e far precedere una seria analisi sulla qualità del dato alla costruzione degli algoritmi. È un lavoro certosino e meno gratificante, ma necessario, perché un set di dati di scarsa qualità produce previsioni scadenti e in sanità questo si ripercuote pesantemente sui pazienti.