Filosofia e digitale

I dilemmi dell’etica applicati alla telemedicina: il caso di un’app per la sclerosi multipla

Anche nella scelta di un’app per una malattia degenerativa come la sclerosi multipla, le scienze filosofiche possono aiutarci a dare rigore al dibattito, indirizzandoci a porci le giuste domande e a scegliere le soluzioni sulla base di cornici etiche adeguate. Vediamo in che modo

Pubblicato il 15 Mar 2023

Lorenza Saettone

Filosofa specializzata in Epistemologia e Cognitivismo, PhD Student in Robotics and Intelligent Machines for Healthcare and Wellness of Persons

ethics-2991600_960_720

Cosa sono le applicazioni di telemedicina e quali domande etiche elicitano?

Esistono svariati esempi di app con cui i pazienti possono esercitarsi e\o essere monitorati direttamente da casa. La telemedicina e gli exergames inseriti in dispositivi mobili sono un ambito in crescita, a maggior ragione a seguito della pandemia. Tuttavia, per un’efficacia clinica, necessitano di essere esaminati a fondo anche a livello etico, a maggior ragione se essi hanno accesso a informazioni sensibili e hanno a che fare con argomenti delicati come la malattia. Certo, non è possibile prevedere ogni side effect, tuttavia, seguendo la metodologia che offrono le scienze filosofiche, è possibile dare rigore al dibattito, e cercare di coprire un ventaglio di opzioni vasto. Contrariamente a quel che si pensa, la filosofia non è solo domande campate in aria, nell’iperuranio.

Bioetica asse del GDPR, ecco la leva per una vera Sanità digitale

La pratica, la messa a terra è un aspetto necessario, quanto più nell’etica (o meglio nelle etiche). Proponiamo perciò di seguito un esempio di analisi filosofica applicato a una app di training cognitivo per una malattia degenerativa come la Sclerosi Multipla.

Quali domande? E quali soluzioni secondo diversi framework etici?

Non c’è una formula per l’etica

L’etica è quella branca della filosofia che si occupa di giudicare cosa sia bene e cosa sia male nel comportamento umano. Ha a che fare con i valori e con il motivo per il quale scegliamo una condotta morale: prevede una giustificazione. A fare il bene piuttosto che il male c’è un vantaggio sociale? Ne va della felicità? Si riducono dei costi? È più razionale? A seconda della corrente, della cultura, del caso, delle informazioni disponibili le risposte cambiano. Ecco perché l’etica non è un argomento di facile trattazione: non c’è un’unica formula applicabile a ogni situazione. Ed ecco spiegato il motivo per cui si ha a che fare molto di frequente con dilemmi, bivi di complessa soluzione e spessissimo con aporie.

I dati possono essere usati contro una persona?

Per un’app di telemedicina, in grado di cogliere e trattare i dati personali dei pazienti e legata alla salute e alla sua evoluzione, è necessario innanzitutto riferirsi alle leggi. Deve essere GDPR compliant e, se prevede un cloud, questo deve essere sul territorio europeo, il più vicino alla sede di test dell’app.

Non solo, vi chiedo cosa ne è della vulnerabilità di tali sistemi? È possibile che hacker si introducano nei dispositivi inserendo malware, atti a causare malfunzionamenti. La compromissione di software dedicati alla salute ha, come capirete, un impatto piuttosto alto sugli individui. Ecco perché è bene aggiornare di frequente tali sistemi ed è bene che ci siano password sicure.

Siamo certi che i clinici e gli utenti abbiano competenze di cybersecurity?

Moralità della sorveglianza e privacy come “disvalore”

La condivisione con terze parti è un ulteriore aspetto critico su cui riflettere. Per l’app che proponiamo i dati saranno usati solo per lo scopo di ricerca, condivisi solo con l’ospedale, ma negli Stati Uniti, per esempio, i lavoratori vengono incentivati a utilizzare app per la salute e in questo caso i dati vengono condivisi anche con le agenzie di assicurazione le quali, conoscendo la maggiore possibilità di sviluppare disturbi, faranno aumentare la retta degli individui. È giusto essere “puniti” in anticipo per una malattia che magari non verrà sviluppata?

In molti casi sono gli stessi familiari a chiedere di avere accesso a tali informazioni, mettendo in atto una cosiddetta sorveglianza laterale. Zuboff parlava di Capitalismo della Sorveglianza, questo stato di cose per cui i megadati vengono raccolti e fatti fruttare dalle Big Tech, in cambio di servizi apparentemente gratuiti. In questa nuova fase di capitalismo, basato su risorse non deperibili e potenzialmente infinite, anche i governi introducono sistemi di credito sociale basati su una sorveglianza massiva e le istituzioni in generale (scuole, ospedali, polizia) si preparano a un sistema di osservazione e controllo basato su IoT, app, Intelligenza Artificiale. Noi stessi troviamo sempre più accettabile il fatto di osservare gli altri, di controllarli, accedendo ai profili e utilizzando telecamere e monitor. In questo stato di cose la privacy viene fatta passare come un disvalore, come se richiederla fosse sintomo di nascondimento e quindi rappresentasse quasi un’ammissione di colpevolezza.

Il dibattito sul regolamento Ue ChatControl

Lasciatemi fare un esempio: legato alla questione della sorveglianza, è stato (ed è) importante il dibattito su ChatControl, il regolamento UE per il controllo delle chat dei minori, al fine di impedire la pedofilia o casi di violenza e di suicidio potenziali. Insomma, da qualche tempo è possibile accedere alle chat dei minori perché ciò è giustificato da ragioni di sicurezza molto forti. Molte le critiche al regolamento. I provider potranno essere molto più invasivi, avendo il lasciapassare per accedere alle corrispondenze che altrimenti sarebbero crittografate, comprese le chat con medici, psicologi, avvocati, che dovrebbero essere coperte da segreto professionale. Cosa ne è della dignità personale in caso di falsi positivi? 

L’utilitarismo valuta le conseguenze di un’azione, se un vantaggio è molto forte e riguarda la maggior parte della società, allora tutti gli svantaggi per le minoranze perdono valore nel dibattito. Per questo risultano sacrificabili quei gruppi, che, alla luce del beneficio per i più, hanno rischi di malfunzionamento o vengono esclusi dal vantaggio. ChatControl permette di intervenire per fermare la pedofilia e quindi diventa trascurabile che i poliziotti interverranno, con un lavoro extra, nelle vite di chi non c’entra nulla. Non importa se i minori verranno spiati, violando il diritto alla privacy, perché osservarli impedisce che accadano casi di violenza. Le preoccupazioni per le minoranze e per la preservazione della dignità e autonomia di ogni individuo, invece, hanno un peso prioritario nel framework deontologico. E chiaramente è il punto di vista assunto da chi critica ChatControl. In questo caso si sottolinea il ruolo del dovere e del rispetto per le persone e dell’equità come prioritari; le conseguenze, eventuali vantaggi per la società, non hanno peso se essi non sono universali o se qualcuno si fa mezzo per altro, compromettendo la dignità e l’autonomia di alcuni.

Il tema dell’esclusione nell’ambito della telemedicina

Tornando al case study suggerito e ai ricercatori dell’app di training cognitivo, voi come giudicate il fatto che la medicina passi attraverso software e hardware? Non tutti hanno un tablet e non tutti hanno una connessione internet.

Escludereste chi non può permettersi i dispositivi? Escludereste chi ha un ostacolo linguistico (non parla la lingua con cui l’app è proposta)? Siccome gli esclusi sarebbero una minoranza, per voi sarebbe un problema lasciarli fuori dal test (e poi dall’uso dell’app)? Continuereste allora con la ricerca, proprio alla luce del beneficio dei più, di accedere a un servizio di training cognitivo tanto vantaggioso su più livelli (auto-responsabilizzazione, riduzione costi spostamento, minore medicalizzazione della riabilitazione)? Se avete risposto affermativamente vi trovate in un framework utilitaristico.

Immaginatevi, ora, nei panni dei tecnici di riabilitazione. Un’app potrebbe sostituirvi interamente o comunque sarebbero necessari molti meno esperti umani se gran parte del lavoro potrà essere svolto da casa, in modo automatizzato tramite software. Le decisioni potranno essere prese dal machine learning sulla base di dati e algoritmi statistici. Come giudicate ciò? Ci sarebbe una perdita di competenze? Oppure per voi la perdita del lavoro di alcuni può essere tollerata se l’app si dimostrasse efficace e sicura come il training tradizionale, permettendoci di dedicarsi a lavori di supervisione più ad alto livello o ad altre mansioni (è richiesto molto più lavoro in ospedale: la società è più anziana e i tecnici non sono sufficienti)?

Come giudicate il fatto che i malati, con una forma avanzata di sclerosi multipla, verrebbero esclusi dall’app (prima e\o durante la sperimentazione)? È tollerabile da tutti?

Immaginate prima Nome e Cognome e poi immaginate di sostituire i nominativi astratti con i vostri o con quelli di vostra madre… è cambiato qualcosa nel vostro giudizio?

Come vi sentireste se foste esclusi da un training a distanza perché ormai la sclerosi è così avanzata da non riuscire più a muovere le mani? Se non aveste accettato di partecipare al trial, avendo continuato, dall’inizio alla fine, con il tecnico, in presenza, il quale avrebbe sì adattato gli esercizi, ma non sarebbe cambiata la nostra routine in modo significativo, sarebbe stata minore la tristezza nell’affrontare la realtà del nostro peggioramento?

Kant sosteneva che la massima del giudizio deve essere universale perché essa sia imperativo categorico. Per giudicare la condotta etica l’unico modo è mettersi nei panni di tutti gli attori coinvolti e trovare quel dovere che tutti sceglierebbero. Ciò impedisce che qualcuno possa essere sacrificabile per l’utile degli altri (i tecnici hanno meno carico di lavoro; i familiari possono staccare la spina; chi è nelle fasi iniziali e possibilità economiche può allenarsi anche da casa, evitando di recarsi sempre nel centro di riabilitazione distante da dove abita). Se pensate che sarebbe un problema che un simile software fosse per qualcuno intollerabile, negativo, impedendo l’universalità del giudizio, allora vi trovate in piena deontologia.

Etica e comunità

Per trovare un giudizio comune imparziale, Rawls sosteneva di procedere come se fossimo dietro al famoso “velo di ignoranza” (non sappiamo chi siamo: i ricercatori, i familiari, il malato, a che stadio e da che zona). Dentro a questo sandbox ipotetico, Rawls credeva che le persone fossero in grado di essere razionali nel cercare di trovare e rispettare condizioni eque e imparziali. Si è detto che le domande etiche esistono perché non si hanno informazioni sufficienti. In questo esperimento mentale le informazioni sono ridotte al minimo, per contenere non solo l’interesse personale, ma anche i valori sociali che spesso ci guidano in scelte che di universale non hanno nulla. Il diritto alle cure mediche deve rispettare i valori di tutti.

Lo sapete che esistono etiche non deontologiche e non utilitaristiche, che invece pongono l’accento sulla relazione e sulla comunità: in questo caso com’è giudicata l’app di nostra pertinenza? Mi riferisco all’etica della cura, a quella Ubuntu, ma anche quella confuciana, per cui il bene dello Stato, comunitario e il bene della Famiglia sono di primaria importanza. Pertanto, com’è giudicata un’app di telemedicina dove il familiare viene dispensato dal prendersi cura del parente? Ci pensa il software a ricordargli di fare esercizi. Questi sistemi portano il soggetto a isolarsi, a differenza di tecniche riabilitative in presenza, dove il tecnico è in grado di accorgersi di minimi segni di disagio e con cui il paziente può creare un rapporto affettivo di importanza per la sua riabilitazione. L’app verrebbe esclusa se il criterio con cui giudichiamo cosa sia bene e cosa sia male pone l’accento sulla relazione e sulle azioni volte a incentivarla e non a distruggerla.

Le parole chiave per una scelta etica

Per risolvere le nostre domande etiche non è stato possibile scegliere un solo framework, com’è chiaro. Come spesso accade, la soluzione consiste nella combinazione di vari approcci. Le nostre parole chiave sono state le seguenti:

  • Beneficence e non-maleficence. L’app deve rappresentare un vantaggio per il benessere di tutti i soggetti coinvolti e non deve procurare danni maggiori. Deve essere provato dai ricercatori di aver cercato di evitare tutti rischi potenziali: non devono esserci state negligenze. Il paziente e il suo benessere restano il fine principale della ricerca, di ogni ricerca, non devono sopravanzare motivi economici, interessi politici che giustifichino la sacrificabilità di certuni. Se possiamo ricevere molti soldi per l’app e questa non procura i benefici previsti non dobbiamo ignorare i risultati: l’app va ritirata.​
  • Sicurezza, protezione e privacy. Ne va di sistemi di cui fidarsi, sistemi sicuri per la sicurezza personale, fisica, mentale dei pazienti. ​
  • Equità e non discriminazione. Nessuno deve essere escluso per ragioni economiche o per motivi non pertinenti alla ricerca. Il soggetto non idoneo per ragioni di funzionalità cognitive è un’esclusione che non dipende da questioni discriminatorie: chiunque, in quelle condizioni della malattia, sarebbe escluso dal training, questo assicura imparzialità. Per gli esclusi ci sono cure alternative, che garantiscono il diritto alla salute anche previsto dalla Costituzione.​
  • Autonomia. Attraverso un’app di riabilitazione simile, secondo noi il soggetto sarebbe maggiormente attivo, essendo in grado di auto-dirigere la sua riabilitazione, secondo tempi e spazi. Grazie all’app si sentirà di recuperare efficienza e potere decisionale. I pazienti guadagnano a livello di autostima, recuperando un’autonomia di cui erano stati privati a causa della malattia. L’importante è che tra le scelte restino il diritto alla disconnessione (se è stanco può non eseguire gli esercizi); il diritto di fermare la sperimentazione e il diritto di oblio (cancellazione dei dati raccolti come da GDPR); il diritto di informazione (qualora lo richiedesse, il paziente dovrebbe essere informato dagli operatori – non dai ricercatori- del suo stato di salute; deve essere informato in modo trasparente se verrà escluso dal training perché non più idoneo).​
  • Supervisione umana. Gli operatori non saranno sostituibili. Oltre all’app, le tradizionali tecniche in presenza dovranno permanere, in aggiunta. Ciò permetterà altresì al soggetto di non isolarsi, mantenendo la relazione al centro delle nostre valutazioni etiche. Gli stati di malessere psicologico che l’app potrebbe procurare sarebbero identificati durante gli incontri in presenza, dirigendo diversamente le cure.​
  • Trasparenza e spiegabilità. L’app deve essere trasparente. Il paziente deve essere in grado di comprendere quali dati sono stati usati per l’allenamento dell’algoritmo e lo scopo dei dati raccolti. Deve essere in grado di conoscere in che modo l’app si adatta alla sua condizione, proponendo esercizi cognitivi utili alla sua situazione specifica. Devono essere informati tutti gli attori coinvolti dei benefici dell’app, dei diritti, di possibili side effects, prima, cioè nel consenso informato.​
  • Accountability. Se qualcosa non dovesse funzionare si deve conoscere chi ne risponderà.​
  • Consapevolezza e alfabetizzazion​e. Gli operatori e i partecipanti devono essere istruiti a un uso consapevole, perché nessuno sia passivo o sostituibile. Ne va della propria dignità umana e dell’uso adeguato dello strumento.

Il framework del Principlism

Questi principi si possono in parte ricondurre anche al framework del Principlism, usato ampiamente nei dibattiti di etica e bioetica, basato su beneficence, non-maleficence, autonomy, justice.

Significa quindi che nel giudizio dell’app è stato importante per noi che essa non sostituisse, ma si integrasse alle altre terapie in presenza. L’operatore non è mai sostituibile, come il paziente e la relazione restano centrali. Il contatto umano e il monitoraggio del benessere psicologico face-to-face vanno preservati. Questa scelta riduce i possibili danni dell’app (isolamento e stress), massimizzando quindi il peso dei vantaggi (autonomia). Inoltre, tale decisione farebbe accordare l’etica deontologica, utilitaristica e quelle della cura\relazione.

Gli operatori, oltre a non essere sostituibili, dovranno essere formati attivamente perché sappiano usare l’applicazione nei diversi contesti, sapendo interpretare i dati dei pazienti, così da anzitempo qualora emergessero criticità da tali misure. La formazione è utile anche perché a loro volta potranno formare i pazienti per un uso consapevole e davvero attivo dell’app: solo in questo modo la dignità personale, l’autonomia, la scelta ponderata sono preservate. Così facendo, contemporaneamente, si ovviano a problemi legati alla cybersecurity messi in luce all’inizio.

Per impedire l’isolamento un modo potrebbe essere quello di prevedere la possibilità di esercitarsi anche in modalità multiplayer, con altri pazienti o con i propri familiari, permettendo in questo modo la condivisione e il contatto e impedendo la deresponsabilizzazione progressiva. La connessione via internet può ovviare all’ostacolo della vicinanza fisica a tutti i costi e al caso in cui un paziente non avesse una famiglia, riuscendo anche lui a condividere  il gioco e la riabilitazione con altri pazienti. Questo suggerimento aggiunge un ulteriore vantaggio per l’introduzione di un’app di training cognitivo rispetto ai soli metodi tradizionali, in virtù della connessione internet che i software possono prevedere e la riabilitazione analogica no.

Se l’app deve essere trasparente e quindi spiegabile, devono essere espliciti i motivi per i quali gli esercizi sono diventati più semplici. La trasparenza, la consapevolezza e la spiegabilità hanno allora un side effect: l’evoluzione della malattia è molto più visibile per il paziente, il quale avrebbe subito chiaro il motivo per cui l’app gli sta suggerendo esercizi più semplici. Non solo, se il rapporto con altri soggetti nella modalità multiplayer incentiva da un lato la relazione, ma dall’altro può creare senso di inadeguatezza, inferiorità, invidia in seguito al confronto con stati di malattia meno gravi del proprio. Ecco perché tutto deve restare opzionale e interrompibile. In questo modo l’autonomia, la libertà e la responsabilità del paziente rimangono assicurate: potendo lui scegliere via via se, quando, come continuare il training da casa. Il soggetto affetto da Sclerosi Multipla è veramente posto al centro della sua riabilitazione, facendolo essere partecipe della sua cura, a differenza di pratiche in cui restava passivo di fronte alle richieste dell’operatore. Tuttavia il risvolto negativo è il fatto di essere soli con un’app di training cognitivo che potrebbe aumentare anche il rischio di crisi e stati depressivi, per esempio qualora ci si accorgesse di non essere più in grado di portare avanti test che fino al match precedente eravamo stati in grado di eseguire. Lo stress, peraltro, potrebbe peggiorare i risultati nei test, innescando un circolo vizioso depressivo.

Il paziente potrebbe oltretutto essere nella condizione di porsi in attesa del proprio peggioramento, anticipando di continuo la propria degenerazione mentale e fisica. Invece di allenarsi, userebbe l’app per fare continui check del suo stato di salute mentale. Insomma, invece di trarre i vantaggi della gamification, dove il soggetto, al centro dell’esperienza di training, beneficia della sua autonomia e della dopamina ad ogni vittoria nei test, ne trae gli svantaggi: alienazione, depressione perché i livelli successivi non sono incrementali ma regressivi, ossessione e controllo di ogni eventuale peggioramento. Ecco perché è necessario, per noi, che anche in futuro queste app siano opzionali e soprattutto che permanga il diritto di disconnessione del paziente e il diritto di modificare le tecniche riabilitative in corso d’opera.

Certamente per ridurre il caso in cui i pazienti non vengano subito ritirati dal test (sarebbe un problema per la ricerca e uno stress eccessivo per i soggetti), dall’inizio vanno valutati accuratamente quelli idonei. Tale esclusione non è una questione di disuguaglianza e ingiustizia, come detto. L’ingiustizia riguarderebbe solo il caso in cui fossero esclusi quei soggetti che non dispongono dei loro hardware o per altri motivi che finirebbero per violare i diritti umani riconosciuti a livello globale. Ecco perché abbiamo ritenuto che, per impedire che il software creasse divisioni sociali, fosse l’ospedale a fornire il dispositivo: ne va di un trattamento equo e inclusivo. Così come versioni dell’app in più lingue.

È chiaro che molto spesso accadrà (anche durante la ricerca può succedere) che un soggetto non risulti più idoneo all’utilizzo del dispositivo, a causa della perdita di funzionalità corporee e cognitive. L’operatore dovrebbe intervenire con delicatezza, prima che sia il paziente a comunicare di questa inevitabile rinuncia. L’uso di app può rappresentare un vantaggio anche in tal senso: possono essere una specie di test quantitativo utile per i medici per controllare meglio l’avanzamento della malattia. Questo purché ci sia autentica formazione in merito (si sa come interpretare i dati colti dall’app e condivisi in modo criptato con l’ospedale) e purché non sia un giudizio automatizzato, demandato solo all’app. L’interpretazione dei dati deve essere legata alla supervisione del medico, che, appreso il dato, dovrà, prima di comunicare con il paziente, accertarsi se la presunta regressione sia effettivamente causata dalla malattia o se si tratta di un falso positivo, magari dovuto ad altre ragioni, anche legate allo stress causato dall’app stessa.

Come avreste scelto?

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3