l’approfondimento

IA e salute mentale, un rapporto complesso: usi pratici, strumenti, rischi



Indirizzo copiato

La riflessione sulla complessità dell’applicazione dell’intelligenza artificiale al supporto psicologico e alla salute mentale è oggi quanto mai centrale, perché, pur essendo consci delle potenzialità straordinarie offerte da questa tecnologia, è necessario un approccio equilibrato, etico e focalizzato sull’essere umano

Pubblicato il 10 ago 2023

Luca Bernardelli

Psicologo, Autore del libro "Guida Psicologica alla Rivoluzione Digitale", CEO di BECOME. Augmented Life, Cofounder di BOWMAN – Data Matter

Clelia Malighetti

Psicologa, Psicoterapeuta, PhD



bonus psicologo come fare domanda
bonus psicologo come fare domanda

L’intelligenza artificiale (IA) può offrire diverse opportunità nel campo della psicologia, della psichiatria e della salute mentale.

L’IA può essere utilizzata per aiutare nella diagnosi e nella valutazione dei disturbi mentali attraverso l’analisi di grandi quantità di dati, come i risultati di test psicologici, i dati biometrici e i modelli comportamentali, identificando pattern e segnali che possono aiutare nella diagnosi accurata di disturbi mentali.

Inoltre, l’intelligenza artificiale può fornire supporto e counseling personalizzati. Specifici chatbot possono interagire con gli individui, offrendo supporto emotivo, consulenza psicologica e suggerimenti per affrontare lo stress o i disturbi mentali lievi.
In aggiunta, l’intelligenza artificiale può essere impiegata per monitorare costantemente il benessere mentale degli individui, attraverso l’analisi dei dati provenienti da sensori indossabili, registrazioni vocali, dati dei social media e altre fonti. In questo modo, una IA potrebbe individuare segnali di stress, ansia o altri disturbi mentali, fornendo interventi preventivi e suggerendo modelli di comportamento sani e funzionali.

In più, l’IA può essere utilizzata per creare app terapeutiche che si adattano alle esigenze specifiche di ciascun individuo, come avviene, per esempio, per le “terapie digitali” (Digital Therapeutics, DTx), ormai normate in diverse Nazioni.

Infine, l’intelligenza artificiale può accelerare lo sviluppo di nuovi farmaci per i disturbi mentali, utilizzando algoritmi di apprendimento automatico e analizzando grandi set di dati per identificare potenziali obiettivi terapeutici e predire l’efficacia di determinati composti chimici.

Questi sono solo alcuni dei numerosi casi d’uso in cui le intelligenze artificiali potrebbero dare un contributo fondamentale alla ricerca, alla valutazione, all’intervento e alla prevenzione nell’ambito della salute mentale.

D’altra parte, per quanto l’intelligenza artificiale possa – e potrà – offrire vantaggi sempre più significativi, è importante sottolineare che la consulenza fornita da professionisti della salute mentale rimane – e rimarrà? – fondamentale per la cura di disagi e disturbi correlati.

L’IA solleva certamente dilemmi etici riguardanti la privacy e la responsabilità nelle decisioni prese dagli algoritmi ed è cruciale considerare le sue limitazioni, quali, per esempio, il rischio di bias nei dati che la alimentano o la mancanza di empatia.

Infatti, le istituzioni si trovano ad avere la necessità di governare adeguatamente le intelligenze artificiali ad alto rischio, come quelle che ricadono nell’alveo della salute e in particolar modo della salute mentale (come è accaduto all’Unione Europea con il recente AI Act).

Per esempio, le intelligenze artificiali usate in ambiti come il supporto psicologico, la psicoterapia e la psicodiagnostica possono essere considerate ad alto rischio, dato che sono associate a situazioni in cui un malfunzionamento o un uso improprio potrebbe comportare gravi conseguenze per la sicurezza, la privacy o l’integrità dei dati degli individui, che richiedono inevitabilmente un controllo e una regolamentazione più rigorosi finalizzati alla mitigazione dei rischi.

Affective computing ed emotion AI

L’“Affecting Computing” nasce come disciplina ingegneristica, con l’obiettivo di sviluppare tecnologie in grado di percepire, riconoscere, comprendere e simulare i processi affettivi.

Il concetto moderno di affective computing è stato introdotto nel 1997 dalla professoressa Rosalind Picard, direttrice del centro di ricerca del Massachusetts Institute of Technology (MIT) e fondatrice e direttrice dell’Affective Computing Research Group presso il MIT Media Lab, oltre a diverse startup tecnologiche. Il suo lavoro ha dato il via a un’ondata di ricerche sulle interazioni emotive tra esseri umani e macchine, portando a quella che oggi viene chiamata “Intelligenza Artificiale delle Emozioni” (o “Emotion AI”).

Picard, in una ricerca pubblicata nel 2002, ha affermato che non è necessario che i computer abbiano una percezione emotiva, ma piuttosto la capacità di soddisfare i bisogni emotivi di una persona. In questo senso, i sistemi affettivi dovrebbero contribuire ai “bisogni empatici, di autoconsapevolezza e di esperienza” dell’utente, che dovrebbe semplicemente sentire che l’IA ha riconosciuto i suoi sentimenti dopo l’interazione.

I sistemi abilitati all’elaborazione affettiva rilevano i – e reagiscono ai – cambiamenti nel linguaggio, nel tono di voce e nelle sfumature delle espressioni facciali di una persona. Lo fanno raccogliendo i dati attraverso sensori fisici, come videocamere e microfoni, e analizzando tali informazioni sulla base di esperienze interattive e Big Data precaricati. Per esempio, un sistema di affective computing potrebbe essere in grado di riconoscere che una persona si sente triste e rispondere riproducendo una canzone rilassante o visualizzando un messaggio di conforto.

L’affective computing coinvolge essenzialmente due processi, il riconoscimento delle emozioni e la sentiment analysis (Peng et al., 2018; Poria et al., 2017; Rouast et al., 2019).

Il riconoscimento delle emozioni mira a rilevare lo stato emotivo degli esseri umani e si concentra principalmente sul riconoscimento delle emozioni visive (VER), sul riconoscimento delle emozioni audio/vocali (AER/SER) e sul riconoscimento delle emozioni fisiologiche (PER) (Wang et al., 2022).

La sentiment analysis, invece, si concentra principalmente sulle valutazioni testuali e sull’estrazione di opinioni su eventi sociali, campagne di marketing e preferenze di prodotti. Il risultato di questa tipologia di analisi è tipicamente positivo, negativo o neutro (Poria, Cambria & Gelbukh, 2016).

In quanto interdisciplinare e di ampia applicazione, l’affective computing coinvolge la psicologia, le scienze fisiologiche, le tecnologie cognitive e informatiche (Poria, Cambria & Gelbukh, 2016) e unisce tre tecnologie principali: il rilevamento e l’interpretazione delle emozioni, il ragionamento dialogico che utilizza le informazioni emotive e la generazione e sintesi delle emozioni.

Un chatbot affettivo è un sistema che interagisce con gli esseri umani utilizzando tecnologie affettive per rilevare le emozioni, decidere e simulare risposte affettive. Può avere un sistema autonomo di elaborazione del linguaggio naturale con almeno queste componenti: analisi del segnale e riconoscimento automatico del parlato, analisi semantica e politiche di dialogo, generazione di risposte e sintesi vocale. Questo agente conversazionale può essere un mero assistente vocale, un personaggio virtuale in 2D o in 3D o un robot fisicamente incarnato.

I robot sociali sono già utilizzati in ambito clinico-assistenziale per aiutare malati, anziani e/o disabili in casa o in ospedale. I robot sono disponibili 24×7, sono pazienti, possono superare le carenze percettive (sordità, disturbi visivi, ecc.) e possono rapidamente accedere alle informazioni disponibili su Internet. Inoltre, sono preziosi per registrare continuamente dati e inviarli a medici e/o psicologi per rilevare eventuali disagi o comportamenti anomali.

Nel caso di disturbi dello spettro autistico, patologie neurodegenerative o gravi disabilità, il robot potrebbe addirittura essere migliore dell’uomo nell’interazione con le persone, soprattutto se molto sole. In questi casi, una macchina potrebbe addirittura aiutarle a prevenire quelle forme depressive che potrebbero degenerare in una demenza.

In conclusione, l’obiettivo dell’affective computing è quello di migliorare l’interazione uomo-computer attraverso sistemi più empatici e intelligenti.

Nel setting clinico chiamato “cyberterapia”, ovvero il contesto terapeutico che impiega le nuove tecnologie per la valutazione e l’intervento terapeutico, l’affective computing offre diverse modalità di supporto, per esempio nella diagnosi e nella gestione dell’ansia, dello stress, della depressione e nella regolazione delle emozioni (Parsons & Rizzo, 2008; Riva et al., 2014; Villani, Lucchetta, Preziosa, & Riva, 2009), rilevando i cambiamenti a livello fisiologico (per esempio, nel battito cardiaco, nella respirazione, nella voce e nell’attività motoria, nella temperatura corporea per monitorare o/e prevenire episodi ansiosi o depressivi). Queste informazioni potrebbero essere utilizzate per fornire una diagnosi e un trattamento più precisi e personalizzati.

Un altro contesto riguarda il monitoraggio dei disturbi del sonno attraverso lo screening dell’attività cerebrale, la frequenza cardiaca e la respirazione durante il sonno, per rilevare eventuali anomalie, come l’apnea notturna o disturbi del sonno.

Infine, nella riabilitazione cognitiva i sensori potrebbero per esempio rilevare cambiamenti nella memoria e nel comportamento di persone affette da demenza, consentendo di personalizzare l’intervento e migliorare la qualità di vita del paziente.

Psicodiagnostica e fenotipizzazione digitale

L’Organizzazione Mondiale della Sanità stima che entro il 2035 ci sarà un deficit globale di circa 12,9 milioni di operatori sanitari. La digitalizzazione dei servizi sanitari è destinata a svolgere un ruolo fondamentale nel miglioramento dell’efficienza dei costi sanitari.

Un esempio ne è il “triage digitale”, in cui i pazienti compilano un questionario digitalizzato e vengono guidati direttamente al livello di assistenza appropriato in base alle loro risposte. Di conseguenza, un sistema di triage accurato potrebbe potenzialmente risparmiare su costi e tempi, qualora fosse in grado di svolgere il ruolo di addetto al triage.

Nel mondo della digitalizzazione in ambito psicologico, degni di attenzione sono gli strumenti basati sull’intelligenza artificiale, chatbot in grado di offrire assistenza 24 ore su 24 ai pazienti.

Nell’ambito della psicodiagnostica l’intelligenza artificiale sta prendendo sempre più spazio nel tentativo di facilitare, velocizzare e migliorare il processo di valutazione. Strumenti in grado di riconoscere specifiche neuro-diversità o alcuni disturbi rappresentano una nuova generazione di strumenti psicodiagnostici all’avanguardia.

Dalla rilevazione delle alterazioni dei movimenti oculari sintomatiche della schizofrenia all’analisi delle funzioni attentive e di memoria, dall’imaging automatizzato del comportamento ai fini di diagnosi di un disturbo dello spettro autistico all’analisi vocale finalizzata all’identificazione di sintomi di ansia e depressione, dalla valutazione neuropsicologica dei disturbi da deficit di attenzione e iperattività (DDAI) e dei disturbi specifici dell’apprendimento (DSA) alla valutazione psicologica di un paziente funzionale a una gestione più rapida ed efficiente delle situazioni a rischio, le AI stanno prendendo spazio anche nel comparto della salute mentale.

In tutti i casi, il potenziamento delle diagnosi precoci diventa un fattore essenziale per avviare celermente percorsi di supporto appropriati alle varie condizioni

La psicodiagnostica digitale potrebbe essere notevolmente accelerata dalla “fenotipizzazione digitale” che, grazie ai “biomarcatori digitali”, dati generati principalmente dall’uso intensivo dello smartphone, combinati ai dati soggettivi prodotti dagli stessi utenti, rendono possibile mappare gli “indicatori di malattia”, indici da cui ricavare in tempo reale lo stato di salute psicofisica di un individuo, allo scopo di salvaguardarne la salute.

La fenotipizzazione consiste essenzialmente in un nuovo metodo di osservazione, basato sulla raccolta di dati e sulla profilazione comportamentale grazie allo smartphone.

Per interazione uomo-macchina non si fa riferimento solo a ciò che si digita ma a come si digita, per esempio l’analisi della latenza tra spazio e carattere, o l’intervallo tra scorrimento e clic, ovvero tutti quegli elementi che potrebbero rivelare informazioni utili rispetto ai tratti cognitivi o a stati affettivi delle persone (Dagum, 2018).

La promessa della fenotipizzazione digitale è una misurazione ecologica, ovvero che avviene nel contesto dell’esperienza vissuta della persona e non in un contesto clinico-ambulatoriale.

Per esempio, se pensiamo alla depressione post partum, i segnali fisiologici e psicologici di una neomamma con diagnosi di depressione analizzati durante l’allattamento di notte, ci immaginiamo che siano probabilmente diversi e più informativi di quelli che la madre stessa può riferire al mattino del giorno successivo.

Senz’altro il monitoraggio e l’utilizzo di questi dati è accompagnato da diverse questioni etiche, quali: si tratta di una mera misurazione o di una forma di sorveglianza? È una misurazione intrusiva? Come verranno usati i dati? Chi li può detenere?

In ambito psichiatrico, uno dei segnali più informativi potrebbe risiedere nella cronologia delle ricerche su Internet o nei post sui social media, che potrebbero confessare un intento suicida o i primi segni di psicosi. Il valore di queste informazioni è superiore all’intrusione nella privacy necessaria per ottenerle?

Tutte queste questioni fanno parte di un dibattito sempre più attivo, come merita ogni nuova promettente tecnologia.

Chatbot psicologici nella ricerca

Sono numerosi gli enti di ricerca e le università che hanno concepito chatbot nell’ambito della ricerca psicologica e neuroscientifica.

Tra i più importanti, possiamo citare senz’altro “Eliza”, il primo chatbot psicologico sviluppato nel 1966 dal Joseph Weizenbaum al Massachusetts Institute of Technology di Boston. Il suo obiettivo era di realizzare la parodia di una conversazione tra un terapeuta rogersiano e il suo paziente nei primi colloqui, in cui le domande non prevedono una profondità, utilizzando semplici regole di riconoscimento del linguaggio.

Eliza faceva domande ai suoi interlocutori, cercando di comprendere il loro stato emotivo e di fornire risposte appropriate basate su frasi predefinite. Spesso, le sue risposte erano in realtà riflessioni sulle domande dell’utente, creando un effetto di “rispecchiamento” simile a quello utilizzato nella terapia di Carl Rogers, a cui peraltro si ispirava.

Sebbene, ovviamente, Eliza non fosse in grado di offrire una vera terapia o diagnosi psicologiche, ha suscitato un grande interesse e ha avuto un impatto significativo nel campo dell’intelligenza artificiale e della psicologia. Ha dimostrato come un programma informatico relativamente semplice potesse simulare una conversazione terapeutica e sollevare questioni interessanti sull’interazione uomo-macchina.

Eliza ha aperto la strada a numerosi sviluppi successivi nel campo dei chatbot psicologici, che oggi sono utilizzati in molte applicazioni per fornire supporto emotivo, consigli e interazioni terapeutiche basate sull’intelligenza artificiale.

Un’altra chatbot storico è “Parry”, creato nel 1972 dallo psichiatra Kenneth Colby, durante i suoi studi alla Stanford University, con l’obiettivo di esplorare la possibilità che un’intelligenza artificiale potesse essere in grado di simulare o imitare i disturbi mentali umani, nel caso specifico i disturbi paranoici, dimostrando abilità sorprendenti nel riprodurre le possibili risposte di un paziente paranoico. Parry rappresenta uno dei primi esperimenti di chatbot psicologici e ha avuto il merito di sollevare diverse questioni etiche e morali, contribuendo a gettare le basi per ulteriori sviluppi nell’utilizzo dell’intelligenza artificiale nel campo della salute mentale.

Il più recente chatbot “SimSensei” è un assistente virtuale progettato per fornire supporto emotivo e valutazione dello stato emotivo delle persone. È stato sviluppato da un team di ricercatori guidato dal dott. Skip Rizzo presso l’Institute for Creative Technologies dell’Università della California del Sud. SimSensei utilizza la tecnologia dell’intelligenza artificiale e dell’elaborazione del linguaggio naturale per interagire con gli utenti e raccogliere informazioni sul loro stato emotivo, fornendo un ambiente sicuro per esprimere i propri sentimenti. Il chatbot può condurre interviste interattive in cui fa domande sulla salute mentale, sullo stress, sull’umore e sul benessere generale. L’obiettivo di SimSensei è di fornire un supporto aggiuntivo per individuare potenziali segnali di disagio emotivo e fornire risorse di auto-aiuto. Il chatbot utilizza algoritmi di intelligenza artificiale per analizzare le risposte degli utenti, individuando indicatori di rischio e offrendo suggerimenti o riferimenti a professionisti della salute mentale qualificati, se necessario.

Ad esempio uno studio pubblicato nel 2016 sulla rivista Computers in Human Behavior ha dimostrato l’efficacia di Simsensei nel ridurre i sintomi di depressione e ansia nei membri del servizio militare (Rizzo et al., 2016). Un altro studio pubblicato nel 2019 sul Journal of Medical Internet Research ha analizzato l’efficacia di Simsensei nel ridurre i sintomi di depressione e ansia nei giovani adulti e i risultati hanno dimostrato che Simsensei era efficace nel ridurre i sintomi della depressione e dell’ansia, con effetti mantenuti a un follow-up di 3 mesi (Palanica et al., 2019). Un ulteriore studio pubblicato nel 2021 sul Journal of Medical Internet Research ha analizzato l’accettabilità e la fattibilità di Simsensei come strumento di supporto alla salute mentale per le persone affette da dolore cronico. I risultati hanno dimostrato che Simsensei è uno strumento efficace per fornire supporto alla salute mentale delle persone affette da dolore cronico e i partecipanti al gruppo Simsensei hanno registrato una riduzione significativa dei sintomi di depressione e ansia rispetto al gruppo di controllo.

Una recente “scoping review” (Bending et al., 2022) sui chatbot impiegati in psicologia clinica e psicoterapia ha mostrato risultati promettenti per quanto riguarda la fattibilità, l’accettabilità e l’efficacia preliminare dei chatbot per favorire la salute mentale.

Il chatbot “MYLO” (Manage Your Life Online) offre un programma di auto-aiuto per la risoluzione dei problemi quando una persona è in difficoltà (Gaffney et al., 2014).

Il chatbot “SHIM” è un programma di auto-aiuto per migliorare il benessere mentale (Ly et al., 2017).

Il chatbot “SABORI” (Suganuma et al., 2018) offre un programma di auto-aiuto preventivo per la promozione della salute mentale.

Il chatbot “SISU” simula una conversazione modellata sul paradigma della scrittura terapeutica, con elementi della terapia “ACT” (Bendig et al., 2018).

Gli studi considerati da questa revisione sono per lo più studi pilota, composti da piccoli campioni e quindi con una potenza statistica insufficiente per parlare di efficacia terapeutica. Gli studi analizzati da questa review mostrano benefici da parte dei partecipanti per variabili psicologiche come il benessere, lo stress e la depressione.

I principali vantaggi di un chatbot nel campo della salute mentale sono l’accessibilità e la scalabilità, un supporto emotivo automatizzato e la possibilità di un monitoraggio continuativo in cui è possibile richiedere l’intervento di professionisti della salute mentale.

Questo è un ambito che si sta evolvendo molto rapidamente e in cui le innovazioni sono ormai quotidiane.

Chatbot psicologici di mercato

In realtà, sul mercato sono già presenti anche chatbot per il counseling psicologico che stanno erogando servizi alla collettività.

Il più famoso – e finanziato – è “WOEBOT”, sviluppato da un team di ricercatori dell’Università di Stanford, guidato dal dott. Alison Darcy, un professore associato di ricerca presso il Dipartimento di Psichiatria e Scienze del Comportamento della Stanford University.

Woebot è un’applicazione di intelligenza artificiale sviluppata per fornire supporto emotivo e consulenza basata su evidenze scientifiche, utilizzando principi di terapia cognitivo-comportamentale (CBT) per aiutare le persone a gestire lo stress, l’ansia e l’umore. Sono stati condotti diversi studi scientifici per valutare l’efficacia di Woebot.

Un esempio di studio è stato pubblicato sulla rivista scientifica “JMIR Mental Health” nel 2017. Lo studio ha coinvolto 70 partecipanti adulti con sintomi depressivi da lievi a moderati, mostrando una riduzione significativa dei sintomi depressivi rispetto al gruppo di controllo (Fitzpatrick, Darcy, & Vierhile, 2017).

Un altro studio clinico randomizzato condotto nel 2020 ha esaminato l’effetto di Woebot su 192 donne con sindrome post-partum, indicando risultati incoraggianti in termini di ansia e depressione (Ramachandran et al., 2020).

Questi studi suggeriscono che l’utilizzo di Woebot può essere efficace nel ridurre i sintomi di ansia e depressione, ma è sempre importante sottolineare che Woebot non è stato progettato per sostituire la terapia tradizionale o l’intervento umano, ma per fornire un supporto emotivo supplementare, soprattutto a chi non può o non riesce ad accedere facilmente a servizi di consulenza psicologica tradizionali.

Un altro chatbot per la salute mentale che utilizza l’intelligenza artificiale e le tecniche di terapia cognitivo-comportamentale (CBT) è “WYSA”, che fornisce supporto emotivo e aiuta gli utenti a gestire la propria salute mentale.

In uno studio pubblicato nel 2020 sul Journal of Medical Internet Research, i ricercatori hanno analizzato l’efficacia di WYSA nel ridurre i sintomi di ansia e depressione nei giovani adulti. I risultati hanno dimostrato che Wysa è stato efficace nel ridurre i sintomi di ansia e depressione, e l’effetto si è mantenuto a un follow-up di 3 mesi.

In un successivo studio pubblicato nel 2021 sul Journal of Affective Disorders è stata analizzata l’efficacia di Wysa nel ridurre i sintomi di depressione negli studenti universitari. Anche qui, i risultati hanno dimostrato che Wysa è stato efficace nel ridurre i sintomi della depressione e l’effetto si è mantenuto a un follow-up di 3 mesi.

Un altro studio, pubblicato nel 2022 sul Journal of Medical Internet Research, ha dimostrato che Wysa è uno strumento efficace per ridurre i sintomi di ansia e depressione nelle persone con dolore cronico. Sebbene siano necessarie ulteriori ricerche per determinarne l’efficacia per altre popolazioni e condizioni di salute mentale, i risultati ottenuti finora suggeriscono che WYSA ha il potenziale per rappresentare una valida integrazione ai trattamenti per la salute mentale esistenti (Gupta, Malik & Sinha, 2022).

Probabilmente, nei prossimi anni assisteremo al proliferare di agenti conversazionali esperti in psicologia che, attraverso varie forme (app di messaggistica istantanea, avatar antropomorfi, meta-umani in realtà virtuale, robot affettivi) erogheranno servizi 24×7 a una popolazione sempre più ampia.

Anche “ChatGPT”, il più famoso e complesso motore di comprensione e generazione di linguaggio naturale, è in grado di fornire interessanti indicazioni sulla salute mentale e sul benessere emotivo, pur non essendo stato creato con quell’obiettivo.

Se provaste a porre domande quali: Mi sento triste in questo periodo: hai dei suggerimenti per superare questo momento difficile?”, vi rendereste conto della stupefacente capacità di indirizzarle.

Le risposte di questa IA alle domande psicologiche degli utenti, infatti, sono molto puntuali, compreso un disclaimer finale – ripetuto più volte – che orienta la persona bisognosa d’aiuto verso un terapeuta in carne e ossa.

Chatbot psicologici da attenzionare

Esistono chatbot di stampo psicologico molto particolari. Tra questi, meritano senz’altro una citazione Replika e Norman.

L’app “Replika” è nata nel 2017 dall’azienda californiana Luka ed è un’interfaccia conversazionale con un avatar virtuale che fornisce supporto emotivo e relazionale, imparando le preferenze degli utenti che interagiscono con lei.

Recentemente, nel folto gruppo Facebook chiamato “Replika: Romantic Relations” è sorto addirittura il problema delle molestie sessuali e delle avance indesiderate di questa IA. Peraltro, nel febbraio 2023, il Garante della Privacy Italiano ha imposto il blocco del trattamento dei dati degli utenti italiani di questa app, in quanto in evidente violazione del GDPR.

A differenza di Replika, il chatbot “Norman”, è stato esplicitamente progettato nel 2018 dal Massachusetts Institute of Technology come un esperimento per esplorare il lato oscuro dell’intelligenza artificiale.

Ispirato al personaggio Norman Bates del film “Psycho” di Alfred Hitchcock, questa IA è stata addestrata su immagini violente e disturbanti al fine di investigare come l’esposizione a determinati contenuti possa influenzare comportamenti e linguaggi anche da parte di una intelligenza artificiale.

Il risultato di questo addestramento ha portato Norman a sviluppare una visione distorta e negativa del mondo. L’aspetto cruciale di questo esperimento è stato l’accento posto sulla necessità di adottare approcci responsabili e di garantire l’equità e l’obiettività nelle applicazioni dell’intelligenza artificiale.

Infine, “Forefront.AI” e altri chatbot internazionali in fase sperimentale, propongono avatar antropomorfi specialistici che si presentano come “psicologi abilitati”, pur non essendolo…

Nuove problematiche psicologiche da ia

L’intelligenza artificiale potrebbe rappresentare un pericoloso innesco per nuove tipologie di tecnodipendenze (Ellis, 2019).

L’uso eccessivo o problematico dell’IA, infatti, potrebbe portare a sviluppare una dipendenza da chatbot terapeutici o da altre applicazioni che propongono interazioni virtuali.

Inoltre, l’intelligenza artificiale potrebbe generare ansia e stress a causa di preoccupazioni riguardanti la sicurezza delle informazioni personali o la paura di essere rimpiazzati da tecnologie intelligenti.

In più, l’intelligenza artificiale potrebbe portare all’affermazione di avatar virtuali o agenti intelligenti che simulano personalità e interazioni umane, sollevando questioni legate all’identità digitale e alla confusione tra il sé virtuale e il sé reale.

Peraltro, l’IA, spinta eccessivamente, potrebbe portare a una diminuzione della fiducia nella capacità umana di prendere decisioni e risolvere problemi.

Più in generale, l’intelligenza artificiale solleva dibattiti etici complessi, come l’autonomia umana, l’equità e il controllo delle tecnologie, che potrebbero avere un impatto sulla salute mentale delle persone, causando preoccupazione, confusione o senso di impotenza collettivi.

In uno scenario in cui, secondo un recente studio di Goldman Sachs, strumenti simili a ChatGPT potrebbero mettere a rischio circa 300 milioni di posti di lavoro entro il 2030, l’intelligenza artificiale potrebbe essere la principale fonte di “tecnofobia”, ovvero la paura o all’avversione nei confronti delle tecnologie. Molte persone potrebbero temere che questa tipologia di automazione riduca il ruolo umano, causando incertezza professionale e ansia riguardo al futuro, con un inevitabile impatto sulla salute mentale.

Certo, l’introduzione dell’intelligenza artificiale porterà a nuove opportunità di lavoro e alla creazione di nuovi settori, ma sarà necessario fornire risorse e programmi di formazione per aiutare i lavoratori a sviluppare competenze complementari alle tecnologie emergenti e a promuovere la riconversione professionale, al fine di mitigare possibili diffusi disturbi dell’adattamento.

Inoltre, l’intelligenza artificiale può sollevare preoccupazioni riguardo alla sicurezza dei dati personali, dato che violazioni o gestione inappropriate dei propri dati possono portare alla divulgazione non autorizzata di informazioni personali. Questo può contribuire alla paura di essere esposti a rischi legati alla propria privacy.

In aggiunta, l’uso pervasivo della tecnologia e le sempre più potenti intelligenze artificiali potrebbero contribuire a creare una cultura in cui il monitoraggio e la sorveglianza sono considerati la norma, generando così un senso di inquietudine e una sensazione di perdita della propria riservatezza e dell’autonomia.

Per di più, va considerato l’effetto dei “filtri intelligenti” che modificano i volti umani e che stanno generando un’epidemia di “dismorfie da social” o “dismorfie da selfie“, che riguardano la preoccupazione eccessiva per il proprio aspetto fisico, particolarmente legate all’immagine che una persona ha di sé, in costante crescita dopo l’avvento dei social media e di una cultura dell’immagine estremizzata, che porta a sentirsi perennemente giudicati (Ryding & Kuss, 2020).

Un ulteriore fenomeno particolarmente pericoloso è il “deepfake”, che usa l’intelligenza artificiale per creare contenuti audiovisivi ingannevoli e compromettenti, ma che sembrano autentici, facendo sembrare che una persona stia dicendo o facendo qualcosa che non ha realmente detto o fatto. Sebbene il deepfake possa essere utilizzato in modo divertente o creativo, presenta anche alcuni rischi potenziali per la salute mentale delle persone (Westerlung, 2019).

In aggiunta, le impronte digitali e i dati provenienti dai social media sono la base per creare anche i cosiddetti “ghostbot”, software che, grazie all’intelligenza artificiale, possono generare reincarnazioni digitali di persone defunti, portando a estendere il tema della protezione della privacy anche post-mortem.

Insomma, la società avrà sempre più a che fare con forme di abuso digitale che possono causare gravi danni emotivi, psicologici e sociali.

Per affrontare tutte queste preoccupazioni, è importante sostenere la formazione continua della collettività per adattarsi ai cambiamenti tecnologici, introdurre politiche di incentivazione dell’innovazione responsabile e lavorare a una società in cui l’intelligenza artificiale sia utilizzata per migliorare la qualità della vita.

E proprio le professioni psicologiche dovranno gradualmente dotarsi delle conoscenze relative alle tecnodipendenze e ai disagi correlati al digitale, che faranno sempre più parte degli aggiornamenti dei prossimi manuali dei disturbi psichiatrici.

La psicologia dell’IA e dei big (mental) data

Lo psicologo dell’intelligenza artificiale e dei big data è una nuova professione in evoluzione che richiede competenze molto specifiche che vanno oltre il perimetro degli attuali percorsi formativi psicologici tradizionali.

Il professionista formato in questo campo dovrebbe avere una comprensione solida dei principi, delle tecniche e delle applicazioni, inclusi i modelli di apprendimento automatico e profondo, l’elaborazione del linguaggio naturale e l’analisi dei dati.

Inoltre, dovrebbe essere formato in “Data Science”, la disciplina che combina statistica, informatica e analisi dei dati per estrarre conoscenze e informazioni significative dai dati, identificando modelli, relazioni e tendenze per prendere decisioni informate. Questa conoscenza è essenziale quando si tratta di applicazioni nei campi della psicologia, della salute mentale e delle scienze sociali, in cui le grandi moli di dati raccolti – i cosiddetti “Big Mental Data” – sono complesse e influenzate da fattori umani e sociali.

Inoltre, una formazione specifica di questo tipo consentirebbe allo psicologo di comprendere i modelli di apprendimento utilizzati dall’IA, di valutarne l’efficacia, identificandone i bias nei dati o negli algoritmi e prendendo misure per mitigare tali problemi, contribuendo a progettarne di migliori.

Inoltre, il professionista della salute mentale potrebbe fornire supporto psicologico a coloro che si trovano ad affrontare sfide legate all’uso dell’intelligenza artificiale, quali la mitigazione degli effetti della già citata tecnofobia, l’adattamento ai cambiamenti tecnologici e l’aiuto nel prendere decisioni informate sull’utilizzo delle tecnologie digitali.

È evidente che queste figure ibride e complesse, diverranno presto pregiate e attrattive, in particolar modo per le organizzazioni clinico-sanitarie e per le istituzioni e gli enti regolatori.

Questo settore emergente continuerà a evolversi rapidamente nel tempo e richiederà un costante aggiornamento delle competenze professionali.

IA e professionisti della salute mentale

L’avvento dell’intelligenza artificiale offre diverse opportunità lavorative per i professionisti della salute mentale.

Questi specialisti, infatti, possono contribuire allo sviluppo di strumenti di valutazione basati sull’IA per la misurazione di costrutti psicologici, consentendo una valutazione più accurata, per esempio, delle caratteristiche di personalità o delle specifiche abilità cognitive di un individuo.

Una figura “psy” potrebbe inoltre coadiuvare l’implementazione di agenti conversazionali in grado di fornire interventi psicologici personalizzati o assumere ruoli di supporto nella diagnosi dei disturbi mentali, fornendo un aiuto digitale nella valutazione dei sintomi e nell’identificazione delle condizioni psicologiche.

Oltre a ciò, intelligenze artificiali costruite ad hoc, potrebbero aiutare i professionisti ad analizzare grandi quantità di dati psicologici, al fine di individuare modelli e correlazioni nascoste, con l’obiettivo di fornire una migliore comprensione dei processi psicologici, delle cause dei disturbi mentali e delle risposte agli interventi terapeutici.

Infine, l’IA può offrire nuove possibilità di ricerca nei campi della psicologia e della psichiatria, consentendo lo studio di questioni complesse e magari addirittura l’identificazione di nuovi approcci terapeutici.

Occorre sempre sottolineare che l’impiego dell’IA nell’ambito della salute mentale richiede un approccio etico e responsabile, che tuteli la privacy dei pazienti/utenti, minimizzi il rischio di bias e massimizzi i benefici per le persone.

L’IA nella ricerca psicologica e neuroscientifica

Dal punto di vista della ricerca psicologica e neuroscientifica, sono diversi gli ambiti in cui l’intelligenza artificiale potrebbe apportare benefici.

Un primo esempio è la comprensione della vita quotidiana al di fuori del laboratorio, dato che i sensori presenti negli smartwatch, nei wearable e in tutta la pletora di oggetti “IOMT” (Internet of Medical Things) disponibili sul mercato, sono dispositivi di consumo sempre più comuni, che consentono di raccogliere enormi moli di dati sia fisiologici sia comportamentali. Tutte queste informazioni potrebbero essere valorizzate, per esempio, per comprendere meglio le dinamiche soggettive, o addirittura per prevedere se un individuo si stia avviando verso l’esordio di un disturbo psicopatologico (Graham et al., 2019).

Un secondo esempio è la comprensione delle connessioni tra mente, cervello e corpo, dato che, appunto, la raccolta di dati sta diventando sempre più più economica e sempre più semplice, sia per i ricercatori sia per i consumatori. Da anni, le neuroscienze e la psicofisiologia stanno esaminando come specifici processi psicologici sono correlati ai processi cerebrali e corporei e, nel corso del tempo, sarà possibile raccogliere campioni di dati oggettivi di dimensioni sempre maggiori e sempre più funzionali alle domande di ricerca (Ng & Leung, 2020).

Un terzo esempio è il deepfake per la ricerca psicologica (Karnouskos, 2020). Sebbene, infatti, questa tecnologia AI abbia implicazioni potenzialmente molto pericolose per l’intera collettività, potrebbe d’altra parte consentire di sperimentare modi radicalmente nuovi di impostare esperimenti psicologici, per esempio, manipolando l’età, il sesso o l’etnia percepiti da una persona, consentendole di sperimentare le differenze di interazione tramite l’immedesimazione nel corpo e nell’identità di qualcun altro.

Gli esempi di applicazioni in questi ambiti potrebbero essere davvero tantissimi e limitati alla sola fantasia dei ricercatori.

Etica dell’IA e umanesimo digitale

L’uso dell’IA nell’ambito della salute mentale pone diverse sfide etiche da valutare con grande attenzione e consapevolezza.

Tra le più importanti, citiamo sicuramente la privacy e la sicurezza dei dati, dato che gli algoritmi di intelligenza artificiale richiedono l’accesso a dati personali e (molto) sensibili per fornire valutazioni e trattamenti, sollevando preoccupazioni sulla privacy e sulla sicurezza dei dati.

Inoltre, gli algoritmi possono essere influenzati da bias e discriminazioni presenti nei dati che ne hanno alimentato l’apprendimento o in coloro che li hanno concepiti, portando a disparità di trattamento nei confronti di determinati gruppi di individui, amplificando le disuguaglianze esistenti.

È fondamentale affrontare questi temi sin dall’inizio, con l’obiettivo chiaro di garantire equità e inclusione nella fornitura di servizi di salute mentale basati su intelligenze artificiali.

In aggiunta, gli algoritmi di intelligenza artificiale spesso operano come “scatole nere”, rendendo difficile comprendere il processo decisionale che li guida e complesso spiegare ai professionisti sanitari e ai pazienti/utenti come vengono raggiunte determinate conclusioni o suggerimenti terapeutici. La trasparenza e l’interpretabilità degli algoritmi è importante per garantire la fiducia, il coinvolgimento e la comprensione delle decisioni prese.

L’uso di algoritmi nell’ambito della salute mentale potrebbe sollevare questioni riguardanti l’autonomia degli individui, dato che l’automazione delle decisioni potrebbe ridurre la libertà di scelta o limitare la loro partecipazione attiva nei processi di cura.

Un altro tema importante riguarda la responsabilità: se un algoritmo diagnostico o terapeutico commette un errore, chi è responsabile della qualità dei dati utilizzati o delle decisioni prese dall’intelligenza artificiale?

Affrontare queste sfide richiede una governance rigorosa, normative chiare e un dialogo sempre aperto tra tecnologi, professionisti della salute mentale, esperti di etica, associazioni di pazienti e istituzioni. Il fine è implementare algoritmi che siano trasparenti ed equi e che rispettino i valori fondamentali della collettività nella fornitura di servizi digitali di salute mentale.

Un approccio che promuove un equilibrio sostenibile tra l’uso dell’intelligenza artificiale e l’importanza dei valori umani fondamentali è l‘umanesimo digitale.

Pur avvalendosi dell’IA per fornire strumenti di valutazione, interventi personalizzati e supporto emotivo, l’umanesimo digitale mette in evidenza l’importanza della presenza e dell’interazione umana nella pratica clinica, promuovendo l’utilizzo dell’intelligenza artificiale per migliorare l’accuratezza e l’accessibilità dei servizi digitali di salute mentale, senza perdere di vista l’essenza dell’esperienza umana.

Oggi la riflessione sulla complessità dell’applicazione dell’intelligenza artificiale al supporto psicologico e alla salute mentale è quanto mai centrale, perché, pur essendo consci delle potenzialità straordinarie offerte da questa tecnologia, è necessario un approccio equilibrato, etico e focalizzato sull’essere umano.

Solo attraverso una continua interazione tra la scienza, la psicologia e l’etica, infatti, sarà possibile accompagnare le prossime fasi della trasformazione digitale e un futuro in cui le persone siano sempre più al centro delle decisioni che riguardano la loro salute.

Bibliografia e sitografia

Bendig, E., Erb, B., Schulze-Thuesing, L., & Baumeister, H. (2019). The next generation: chatbots in clinical psychology and psychotherapy to foster mental health–a scoping review. Verhaltenstherapie, 1-13.

Bernardelli, L. (2022). Guida Psicologica alla Rivoluzione Digitale.

Carey, TA. The Method of Levels: How to do psychotherapy without getting in the way. Hayward, CA: Living Control Systems Publishing; 2006. ISBN: 097401554

Dagum, P. (2018). Digital biomarkers of cognitive function. NPJ digital medicine, 1(1), 10.

Dahl, J., & Lundgren, T. (2006). Acceptance and Commitment Therapy (ACT) in the Treatment of Chronic Pain. In R. A. Baer (Ed.), Mindfulness-based treatment approaches: Clinician’s guide to evidence base and applications (pp. 285–306). Elsevier Academic Press. https://doi.org/10.1016/B978-012088519-0/50014-9

Damasio, A. (2003). Feelings of emotion and the self. Annals of the New York Academy of Sciences, 1001(1), 253-261.

Damasio, A. R. (1994). Descartes’ error and the future of human life. Scientific American, 271(4), 144-144.

Damasio, A. R. (1999). How the brain creates the mind. Scientific American, 281(6), 112-117.

DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A., … & Morency, L. P. (2014, May). SimSensei Kiosk: A virtual human interviewer for healthcare decision support. In Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems (pp. 1061-1068).

Ellis, D. A. (2019). Are smartphones really that bad? Improving the psychological measurement of technology-related behaviors. Computers in Human Behavior, 97, 60-66.

Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): a randomized controlled trial. JMIR mental health, 4(2), e7785.

Gaffney H, Mansell W, Edwards R, Wright J. Manage Your Life Online (MYLO): a pilot trial of a conversational computer-based in- tervention for problem solving in a student sample. Behav Cogn Psychother. 2014 Nov; 42(6):731–46.

Gardiner, P. M., McCue, K. D., Negash, L. M., Cheng, T., White, L. F., Yinusa-Nyahkoon, L., … & Bickmore, T. W. (2017). Engaging women with an embodied conversational agent to deliver mindfulness and lifestyle recommendations: A feasibility randomized control trial. Patient education and counseling, 100(9), 1720-1729.

Gardiner, P., Hempstead, M. B., Ring, L., Bickmore, T., Yinusa-Nyahkoon, L., Tran, H., … & Jack, B. (2013). Reaching women through health information technology: the Gabby preconception care system. American Journal of Health Promotion, 27(3_suppl), eS11-eS20.

Graham, S., Depp, C., Lee, E. E., Nebeker, C., Tu, X., Kim, H. C., & Jeste, D. V. (2019). Artificial intelligence for mental health and mental illnesses: an overview. Current psychiatry reports, 21, 1-18.

Gupta, M., Malik, T., & Sinha, C. (2022). Delivery of a Mental Health Intervention for Chronic Pain Through an Artificial Intelligence–Enabled App (Wysa): Protocol for a Prospective Pilot Study. JMIR Research Protocols, 11(3), e36910.

Karnouskos, S. (2020). Artificial intelligence in digital media: The era of deepfakes. IEEE Transactions on Technology and Society, 1(3), 138-147.

Ly, K. H., Ly, A. M., & Andersson, G. (2017). A fully automated conversational agent for promoting mental well-being: A pilot RCT using mixed methods. Internet interventions, 10, 39-46.

Marken, R. S., & Carey, T. A. (2015). Understanding the change process involved in solving psychological problems: A model‐based approach to understanding how psychotherapy works. Clinical psychology & psychotherapy, 22(6), 580-590.

Ng, G. W., & Leung, W. C. (2020). Strong artificial intelligence and consciousness. Journal of Artificial Intelligence and Consciousness, 7(01), 63-72.

Palanica, A., Flaschner, P., Thommandram, A., Li, M., & Fossat, Y. (2019). Physicians’ perceptions of chatbots in health care: cross-sectional web-based survey. Journal of medical Internet research, 21(4), e12887.

Parsons, T. D., & Rizzo, A. A. (2008). Initial validation of a virtual environment for assessment of memory functioning: virtual reality cognitive performance assessment test. CyberPsychology & Behavior, 11(1), 17-25.

Peng, S., Zhou, Y., Cao, L., Yu, S., Niu, J., & Jia, W. (2018). Influence analysis in social networks: A survey. Journal of Network and Computer Applications, 106, 17-32.

Pennebaker, J. W. (1997). Writing about emotional experiences as a therapeutic process. Psychological science, 8(3), 162-166.

Picard, R. W. (2002). Affective medicine: Technology with emotional intelligence. In Future of Health Technology (pp. 69-83). IOS Press.

Picard, R. W., & Healey, J. (1997). Affective wearables. Personal technologies, 1, 231-240.

Poria, S., Cambria, E., & Gelbukh, A. (2016). Aspect extraction for opinion mining with a deep convolutional neural network. Knowledge-Based Systems, 108, 42-49.

Poria, S., Cambria, E., Bajpai, R., & Hussain, A. (2017). A review of affective computing: From unimodal analysis to multimodal fusion. Information fusion, 37, 98-125

Powers, WT. Behavior: The control of perception. New York: Aldine; 1973.

Ramachandran, M., Suharwardy, S., Leonard, S. A., Gunaseelan, A., Robinson, A., Darcy, A., … & Judy, A. (2020). 74: Acceptability of postnatal mood management through a smartphone-based automated conversational agent. American Journal of Obstetrics & Gynecology, 222(1), S62

Riva, G., Calvo, R., & Lisetti, C. (2014). Cyberpsychology and affective computing.

Rizzo, A. A., Lucas, G., Gratch, J., Stratou, G., Morency, L. P., Shilling, R., & Scherer, S. (2016). Clinical interviewing by a virtual human agent with automatic behavior analysis.

Ryding, F. C., & Kuss, D. J. (2020). The use of social networking sites, body image dissatisfaction, and body dysmorphic disorder: A systematic review of psychological research. Psychology of Popular Media, 9(4), 412.

Rouast, P. V., Adam, M. T., & Chiong, R. (2019). Deep learning for human affect recognition: Insights and new developments. IEEE Transactions on Affective Computing, 12(2), 524-543

Smith, K. A., Blease, C., Faurholt-Jepsen, M., Firth, J., Van Daele, T., Moreno, C., … & Cipriani, A. (2023). Digital mental health: challenges and next steps. BMJ Ment Health, 26(1).

Suganuma, S., Sakamoto, D., & Shimoyama, H. (2018). An embodied conversational agent for unguided internet-based cognitive behavior therapy in preventative mental health: feasibility and acceptability pilot trial. JMIR mental health, 5(3), e10454.

Villani, D., Lucchetta, M., Preziosa, A., & Riva, G. (2009). The role of interactive media features on the affective response: a virtual reality study. International Journal on Human Computer Interaction, 1(5), 1-21

Wang, Y., Song, W., Tao, W., Liotta, A., Yang, D., Li, X., … & Zhang, W. (2022). A systematic review on affective computing: Emotion models, databases, and recent advances. Information Fusion.

Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology innovation management review, 9(11).

https://www.open.online/2023/01/04/chatgpt-psicoterapia-test

https://www.wysa.com/clinical-evidence

https://formative.jmir.org/2021/5/e27868

https://www.sciencedaily.com/releases/2023/05/230517122117.htm

https://www.psychologytoday.com/us/blog/how-do-you-know/202201/unlocking-ai-psychology

https://www.psychologytoday.com/us/blog/the-future-brain/202205/ai-behavior-health-chatbot-app-fast-tracked-fda

https://www.psychologytoday.com/us/blog/understanding-hypnosis/202207/could-artificial-intelligence-replace-therapists

https://www.psychologytoday.com/us/blog/the-future-brain/202204/can-ai-be-emotionally-intelligent

https://chat.openai.com

https://blogs.wysa.io/blog/category/research

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3