Che l’analisi della voce fosse uno strumento prezioso in campo medico, è risaputo (così come la sua straordinaria “partnership” con l’Intelligenza Artificiale).
Che fosse, tuttavia, in grado di analizzare e valutare la salute mentale degli interessati, un po’ meno. Immaginiamo di avere la possibilità di effettuare un test facile e veloce – come può essere la misurazione della temperatura corporea o della pressione sanguigna – che potrebbe identificare in modo affidabile un disturbo d’ansia o prevedere un’imminente ricaduta depressiva in un paziente che ne è affetto. Ed immaginiamo, anche, che tale test sia condotto partendo semplicemente dalla voce del paziente. Utopia? Per alcuni ricercatori non proprio.
Salute mentale, così l’intelligenza artificiale può aiutare i pazienti e il sistema sanitario
Suono della voce e salute mentale
È lapalissiano che il mondo healthcare sia pieno di svariati strumenti predeterminati a valutare le condizioni fisiche di un paziente; tuttavia, non vi sono biomarcatori affidabili (come proteine o sequenze del DNA) per valutare la salute mentale. Alcuni ricercatori esperti di intelligenza artificiale credono che il suono della voce possa essere la chiave per capire lo stato mentale di un essere umano, con l’intelligenza artificiale in posizione perfettamente adatta a rilevare tali cambiamenti (che sono difficili, se non impossibili, da percepire altrimenti).
Il risultato è una serie di applicazioni e strumenti progettati per monitorare lo stato mentale, così come i programmi che forniscono in tempo reale valutazioni di salute mentale in ambito telemedicina. Gli psicologi, d’altronde, sono a conoscenza da tempo che alcuni problemi di salute mentale possono essere rilevati ascoltando non solo “ciò che una persona dice” ma “come lo dice”. Nei pazienti affetti da depressione, ad esempio, il discorso tende ad essere generalmente più monotono, più piatto e più morbido: hanno anche una gamma di tonalità ridotta e un volume più basso, fanno più pause e si fermano più spesso. I pazienti affetti da ansia, invece, avvertono più tensione nei loro corpi (la quale può anche cambiare il modo in cui la voce “suona”), tendono a parlare più velocemente ed hanno più difficoltà a respirare.
L’apprendimento automatico per prevedere depressione e ansia
Oggi, queste tipologie di caratteristiche proprie della voce vengono sfruttate dai ricercatori attivi nel campo dell’apprendimento automatico (“Machine Learning”, che vede gli algoritmi apprendere e migliorare dall’ambiente nel quale operano, con l’intervento umano) per prevedere la depressione e l’ansia nei pazienti, così come altre malattie mentali come la schizofrenia e il disturbo post-traumatico da stress. L’uso di algoritmi di apprendimento profondo (“Deep Learning”, che a differenza del Machine Learning può apprendere in autonomia, senza l’intervento umano), invece, può portare alla scoperta di ulteriori modelli ed ulteriori caratteristiche, come quelle insite nelle registrazioni vocali molto brevi, che potrebbero non essere evidenti con l’uso del “semplice” apprendimento automatico. Ovviamente, nell’ambiente healthcare c’è molto entusiasmo intorno alla ricerca di indicatori biologici od oggettivi delle diagnosi psichiatriche che vanno oltre le forme più soggettive di valutazione che sono tradizionalmente utilizzate (come le interviste valutate dal clinico). Altri indizi che i ricercatori stanno monitorando includono cambiamenti nei livelli di attività, modelli di sonno e dati acquisiti dai social media.
Migliorare il monitoraggio e la valutazione dei pazienti con la tecnologia
Questi progressi tecnologici arrivano in un momento in cui il bisogno di assistenza per la salute mentale è particolarmente acuto. Basti pensare agli strascichi che il Covid-19 ha prodotto – e sta producendo – nell’ultimo biennio sulla psiche di migliaia di individui. L’intelligenza artificiale è vista come una “manna dal cielo” per molti professionisti che studiano la psiche umana: un’autentica speranza che possa abbassare “le barriere” e permetta di ricevere una diagnosi corretta, assistendo i medici nell’identificare i pazienti che possono essere esitanti nella ricerca di cure e facilitare l’auto-monitoraggio tra una visita e l’altra direttamente da parte paziente. Molte cose, tra l’altro, possono accadere tra una visita e l’altra; e la tecnologia può davvero offrirci il potenziale per migliorare il monitoraggio e la valutazione in modo più continuo.
Le app per l’analisi della voce
Si pensi all’APP “Sonde Mental Fitness” dell’azienda statunitense Sonde Health. È descritta come un prodotto di monitoraggio ed un diario di “fitness mentale alimentato dalla voce” che classifica la salute mentale su una scala da uno a cento. Il tutto “condito” da avvertimenti e consigli che accompagnano l’utente nel suo monitoraggio mentale quotidiano (fare una passeggiata, rilassarsi ecc.).
Un’altra soluzione per l’analisi della voce, invece, punta tutto sulla rilevazione dei livelli di ansia. Il “Cigna StressWaves Test”, della società americana Cigna, è uno strumento online gratuito che mira a valutare i livelli di stress utilizzando registrazioni vocali della durata di sessanta secondi. A differenza della soluzione di Sonde, qui siamo direttamente sul Web, rispondendo a domande dirette (come al classico “che cosa ti tiene sveglio di notte?”) e ricevendo risposte altrettanto dirette via mail (come “hai un moderato livello di stress”). A differenza di Sonde, però, qui non vi è spazio per l’auto-miglioramento quotidiano.
Una terza soluzione, sempre made in USA, sfrutta “l’interazione umana” medico-paziente. La società californiana Kintsugi (chiamata come l’antica pratica giapponese di riparare la ceramica rotta con l’oro) ha sviluppato una tecnologia – da utilizzare in telemedicina – per identificare i pazienti che potrebbero beneficiare di ulteriore supporto, anche avvalendosi di professionisti in carne ed ossa che li seguano.
Passiamo ora agli aspetti problematici. Una preoccupazione con lo sviluppo di questi tipi di tecnologie è la questione dei pregiudizi insiti nell’intelligenza artificiale (cosiddetti “bias”), ossia che tali strumenti possano non funzionare correttamente ed equamente per tutti i pazienti, andando a trattare casi diversi in maniera diversa (si pensi all’età, al sesso, all’etnia, alla nazionalità e ad altri criteri demografici). Affinché i modelli di Intelligenza Artificiale funzionino bene, è necessario essere in possesso di un dataset molto ampio, diversificato e robusto (che, ad esempio, non permetta di effettuare discriminazioni tra diverse lingue). Poi, ovviamente, c’è la questione della protezione dei dati personali. Inutile sorvolarci: le registrazioni vocali possono essere utilizzate per identificare gli individui (anche solo potenzialmente). Ed anche quando i pazienti accettano di essere registrati, la questione del “consenso informato”, a volte, è duplice. Oltre a valutare la salute mentale di un paziente, alcuni programmi di analisi vocale usano le registrazioni per sviluppare e perfezionare i loro algoritmi (quindi, diverse finalità del trattamento dei dati). E questo aspetto va al di là delle normative di settore (come il GDPR).