la direttiva

“Secondary use”, così la Ue ribalta il Gdpr e apre all’accesso indiscriminato ai nostri dati

La nuova proposta di direttiva Ue sull’uso secondario dei dati, con l’introduzione dei principi di apertura “by design” e “by default” ribalta tutta l’impostazione del Gdpr che ha edificato le sue fortune proprio sul concetto di “privacy by design”. Ecco tutte le conseguenze di un cambiamento pericoloso e autolesionistico

Pubblicato il 19 Ago 2019

Daniele Ruggiu

Dipartimento di Scienze Politiche Giuridiche e Studi Internazionali, Università di Padova

big data

La nuova direttiva sull’uso secondario dei dati promette di introdurre i principi di ‘openess by design’ e ‘openness by default’ a realizzazione di un preteso diritto fondamentale di accesso alle informazioni. Le nostre.

Dopo aver rappresentato un punto di riferimento mondiale con il Regolamento generale protezione dati personali (Gdpr) e la loro difesa ‘by default’ e ‘by design’, l’Unione europea si accinge a smantellare una regolazione da molti invidiata, per realizzare il sogno delle multinazionali digitali: una trasparenza ubiqua e globalizzata a cui nessuno in futuro potrà sottrarsi.

Il valore delle nostre informazioni

La diffusione di sistemi di intelligenza artificiale (assistenti virtuali) sui nostri smartphone, in internet, negli oggetti di casa o altri dispositivi portatili (smartwhatch, health tracker), sulle automobili (veicoli autonomi o semiautonomi), l’elaborazione di nuovi algoritmi in grado di trattare in maniera più efficiente l’inesauribile mole di dati che produciamo (Big Data), l’avvento dell’internet delle cose in grado di rendere tutti gli oggetti interconnessi ed in grado di interagire nelle nostre città (smart cities) o nelle nostre case (domotica), sono rivoluzioni che stanno già cambiando profondamente le nostre vite. Si tratta di una trasformazione epocale che ha proprio nell’informazione da noi generata il proprio fulcro.

L’informazione ci identifica e per questa ragione ha un valore economico crescente in un mercato sempre più contrassegnato dall’uso delle tecnologie digitali. Dalla convergenza di queste nuove tecnologie si produrranno infatti maggiori quantità di dati che daranno un’immagine sempre più precisa delle nostre abitudini, dei nostri desideri, di ciò che pensiamo o vogliamo (o magari vorremmo) fare, generando conseguentemente nuovi servizi, nuovi prodotti, nuove possibilità di business. Ma anche nuove possibilità di controllo.

Per questo motivo il controllo dell’informazione si riflette più o meno indirettamente sulle nostre vite e la sua disciplina viene a rappresentare un oggetto del desiderio tanto di chi si muove sul mercato, quanto di chi ne disegna i contorni come il regolatore.

La risoluzione del Parlamento europeo sull’uso secondario

Recentemente il Parlamento europeo, al fine adeguare il mercato europeo a questa rivoluzione che ci vede tutti (più o meno involontariamente) protagonisti, ha adottato una risoluzione sulla proposta di direttiva relativa al riutilizzo delle informazioni nel settore pubblico (cd. uso secondario) che promette di rivoluzionare radicalmente gli standard della protezione dei dati dei cittadini europei. Purtroppo in leggera controtendenza rispetto agli ottimi risultati ottenuti con il Regolamento europeo per la protezione dati personali (GDPR) che ha rappresentato fino ad oggi un tratto unico nel panorama mondiale: ciò che caratterizza indelebilmente il continente europeo rispetto a tutti gli altri paesi, tanto da essere additato da Tim Cook, attuale amministratore delegato di Apple, quale un modello di riferimento per lo stesso mercato statunitense.

Grazie al GDPR, principi come ‘privacy by design’ e ‘privacy by default’ rappresentano un punto di riferimento in grado di trasformare, e in parte lo hanno già fatto, le strategie dei colossi del web come Google, Amazon, Facebook e i leader dell’elettronica mondiale Apple, Ibm, Huawai etc. L’idea base è che i nostri dati sono una risorsa che può essere sì sfruttata, purché ne siamo informati, ce lo chiedano prima di raccoglierli e ci vengano garantiti fin dall’inizio alcuni standard minimali di protezione dati.

La linea ora tracciata dalle istituzioni europee, Parlamento di concerto col Consiglio, si accinge a contraddire questa impostazione introducendo alcuni principi del tutto antitetici che non potranno che stravolgere l’attuale assetto normativo europeo. Si tratta dei principi di ‘openess by design’ e ‘openess by dafault’ (Art. 3,2 bis).

L’idea di base del secondary use

L’idea base della nuova normativa sul secondary use è che attraverso le istituzioni pubbliche viene prodotta un’enorme quantità di dati, e questa massa di informazioni rappresenta il nuovo Eldorado delle compagnie digitali, e va pertanto messa a disposizione della collettività, cioè di chiunque abbia i mezzi e le risorse necessarie per investirci sopra, quindi tanto delle imprese pubbliche, quanto, soprattutto, di quelle private. E questo al fine di “stimolare ulteriormente l’innovazione digitale, in particolare nel settore dell’intelligenza artificiale” (considerando 3). “L’utilizzo intelligente dei dati, ivi compreso il loro trattamento attraverso applicazioni di intelligenza artificiale, può trasformare tutti i settori dell’economia”, contribuendo “a migliorare il mercato unico e lo sviluppo di nuove applicazioni per i consumatori e le imprese” (considerando 10 e 6-bis).

Per questo “[t]utti i dati della ricerca finanziata con fondi pubblici dovrebbero essere resi aperti come opzione predefinita” (Art. 10)

Del resto l’accesso all’informazione, ci ricorda il Parlamento europeo, rappresenta un diritto fondamentale sancito dalla stessa Carta dei diritti fondamentali dell’Unione europea che protegge la libertà di espressione, il che include non solo la libertà di opinione ma anche e soprattutto quella “di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera” (considerando 4-bis e Art.11).

Il principio di apertura by default e by design

Ecco perché gli “Stati membri dovrebbero garantire la creazione di dati basati sul principio dell”apertura fin dalla progettazione e per impostazione predefinita'” (by default e by design), “assicurando al contempo un livello coerente di tutela degli obiettivi di interesse pubblico, ad esempio la sicurezza pubblica, anche là dove sono interessate informazioni sensibili relative a infrastrutture critiche, e assicurando la protezione dei dati personali” (considerando 13).

La proposta di direttiva non prevede alcuna limitazione per tipologia di dati, nemmeno quelli sensibili.

Questa rivoluzione verrebbe infatti a interessare qualunque categoria di dati elaborata in settori che secondo il parere della Commissione per il mercato interno e la protezione dei consumatori “non presentano [testuale] un immediato valore economico, quali istruzione, ambiente o sanità” (considerando 60-bis). Diciamo come se tutte le maggiori compagnie digitali non stessero investendo massicciamente in servizi e applicazioni in ambito medico (da health tracker a smart watch in grado di fare l’elettrocardiogramma, a assistenti virtuali in grado di fare diagnosi e avviare i primi interventi terapeutici).

L’unica avvertenza per i dati sanitari è l’espletamento di una previa valutazione di impatto sulla protezione dati ai sensi del GDPR (considerando 47-bis).

A tal fine la sicurezza del riutilizzo delle informazioni raccolte dal pubblico, si badi bene “compreso il riutilizzo transfrontaliero dei dati” (ad esempio da parte dei grandi player che hanno sede a Menlo Park, Seattle, Cupertino etc.), sarebbe assicurato mediante i normali strumenti di criptazione come l’anonimizzazione (considerando 47), che però lo sviluppo tecnologico con le enormi possibilità dispiegate dalle tecnologie emergenti potrebbe presto bypassare, non essendo in grado di escludere che dati anonimi una volta integrati non possano portare a loro volta in futuro alla reidentificazione degli interessati.

Questo porterà ad una situazione paradossale e schizofrenica dove il pubblico (così come i privati) sarà sottoposto nel raccogliere i dati a tutta una serie di limitazioni per difendere la nostra privacy ma poi una volta raccolti e trattati sarà obbligato a condividerli con chiunque e per qualunque ragione e finalità di trattamento.

In questo modo il divario tra pubblico e privato è destinato a crescere erodendo progressivamente le basi di competitività del primo che si troverà sempre più in difficoltà di fronte ad un mercato che potrà attingere liberamente a tutte le sue risorse informative (anche sensibili) ad un costo risibile.

Le possibili conseguenze della proposta di direttiva

Immaginiamo casi come Cambridge Analytica e Tiziana Life Sciences che sono venuti alla luce negli ultimi tempi. In un tale quadro non ci sarebbe alcuno scandalo.

Tanto per ricordarlo con Cambridge Analyica (che è alla base di tutte le odierne fake news che hanno iniziato intossicare il dibattito pubblico), un privato facendo circolare un innocuo questionario su Facebook è riuscito a profilare circa 87 milioni di persone nel mondo ricostruendo le loro preferenze politiche e riuscendo così ad influenzare le elezioni americane del 2016 che portarono all’elezione del Presidente Trump e il referendum della Brexit. Per questo Facebook è stata multata dal Garante per la protezione dati britannica per oltre 600 mila dollari.

Domani Cambridge Analytica potrà contare anche sui dati raccolti direttamente coi finanziamenti pubblici, Mark Zuckemberg non verrà multato e nessun giornale probabilmente ne parlerebbe.

Stessa cosa con il caso Tiziana Life Sciences.

Nel 2014 la popolazione di una remota regione della Sardegna, l’Ogliastra, dove si vivono alcune delle persone più longeve del pianeta, viene convinta a partecipare ad una ambiziosa ricerca diretta ad indagare le origini genetiche di quella longevità. In cambio, dei loro campioni biologici e delle informazioni genetiche, gli abitanti dell’Ogliastra ottengono visite ed esami medici gratuiti fornendo così però ulteriori informazioni sanitarie a cui si aggiungono dati demografici e genealogici con cui i ricercatori riescono a ricostruire legami familiari sino al 1600. Coinvolgendo in questo modo anche chi non aveva direttamente partecipato al progetto di screening genetico.

Un giorno purtroppo la società costituita ad hoc per questo progetto (la Shar.dna) fallisce e la biobanca con tutto l’inestimabile patrimonio di dati fino allora raccolto finisce nelle mani di una società inglese, la Tiziana Life Sciences di Londra, che intende utilizzarlo non più per scoprire l’elisir di lunga vita dei sardi, ma per ricerche sul cancro, al fine farci sopra, come è naturale, dei brevetti e magari portarlo al sicuro al di là della Manica, nella terra di Albione.

Non a caso un giorno tutti i campioni raccolti spariscono e con essi tutte le informazioni fino allora raccolte (informazioni, genetiche altre informazioni sanitarie, informazioni demografiche e genealogiche) che ormai non appartengono più ai sardi ma ad una multinazionale biotech.

In seguito al furto si apre un’inchiesta da parte della Procura della Repubblica di Lanusei, con numerosi rinvii a giudizio e il Garante della privacy blocca tutto richiedendo, essendo nel frattempo cambiati i presupposti del trattamento dati (non più screening genetico ma ricerca oncologica), una nuova informativa e un nuovo consenso da parte dei cittadini dell’Ogliastra coinvolti.

Con la nuova direttiva sul secondary use, domani non ci sarà nessuna inchiesta, nessun intervento del Garante, nessuno scandalo, perché sarà tutto lecito. Lo Stato sarà obbligato a fornire a richiesta tutto quanto raccoglie e custodisce per noi, comprese le nostre informazioni sanitarie, perché è un nostro diritto, cioè è un diritto di Google, Amazon, Facebook, Tiziana Life Sciences. Un privato potrà allora pretendere che con una modica spesa le nostre informazioni sanitarie gli vengano fornite dalle Aziende Ospedaliere, ovviamente previa anonimizzazione, al fine di sviluppare nuove applicazioni sanitarie da inserire nei nostri telefonini, smart whatch, assistenti virtuali che abbiamo in casa, nelle auto etc. servizi che noi alla fine pagheremo tre volte: all’inizio coi nostri dati, poi quando le useremo e, quindi, con meno servizi del pubblico che invece di custodire i nostri dati, come sarebbe tenuto, li ha dati in giro per far da volano al mercato privato, diventando però così anche meno competitivo.

Un risultato notevole.

L’anima come terra di conquista nelle società della trasparenza

Secondo il filosofo tedesco di origini coreane Byun-Chul Han (2014; 2017) le società contemporanee grazie all’evoluzione delle tecnologie di sorveglianza sono ormai assurte a ‘società della trasparenza’ in cui si è perfettamente realizzato lo scenario distopico orwelliano di 1984 dove le masse si trovano sotto la costante attenzione di un Grande fratello. Contrariamente al romanzo di Orwell, però, la stretta totalitaria del controllo sui cittadini, oggi non è realizzata attraverso strumenti coercitivi diretti ad annichilirne la libertà e il dissenso, ma in maniera più subdola facendo leva sulla nostra propensione a condividere ogni aspetto della nostra vita sui social media, seducendoci con nuove tecnologie e applicazioni che per funzionare si nutrono di tutte le informazioni che grazie a nostri dispositivi disseminiamo ovunque. Grazie alla tecnologia la nostra libertà ci si è ritorta contro.

Nella visione del capitalismo di Michel Foucault il corpo era al centro della disciplina del potere che attraverso le proprie biopolitiche regolando ogni aspetto della vita umana veniva ad esercitare il proprio controllo sugli individui. Era il corpo al centro del sistema di produzione di massa.

Oggi però non è il corpo ma la psiche il terreno di conquista del neoliberismo. In Sorvegliare e punire lo stesso Foucault (1976) aveva adombrato questo passaggio affermando che l’anima è la prigione del corpo essendo “essa stessa un elemento della signoria che il potere esercita sul corpo”, effetto e strumento delle biopolitiche (p. 33). Si disciplina il corpo per dominare l’anima. Questo oggi non è più necessario perché la tecnologia attraverso i social media, gli smartphone e le innumerevoli applicazioni che sono state sviluppate, ci consente di puntare direttamente alla volontà degli individui, seducendola.

Il corpo non è più un passaggio obbligato nella dinamica del potere che diventa quindi potere dell’anima: psychopower.

I dati che generiamo sono il confine della nostra libertà

Oggi siamo tutti interconnessi, il che significa che tutti spontaneamente partecipiamo a quest’era tecnologicamente avanzata a cui ci ha condotto il neoliberismo. I dati che noi generiamo sono il confine della nostra libertà. Paradossalmente però attraverso la generazione continua di dati, condividendoli noi stessi spontaneamente, non facciamo altro che alimentare le ragioni di chi dà forma a questa versione neoliberista del capitalismo. L’abbassamento progressivo delle soglie della nostra fiducia che l’uso quotidiano delle tecnologie che ci circondano e avvolgono, come i nostri dispositivi, i social media, gli oggetti interconnessi della nostra casa e ambienti di lavoro, non fa che ridurre la complessità, predisponendoci a condividere ciò che altrimenti non condivideremmo (Han 2019, 12).

Il neocapitalismo non ha fatto però che cambiare paradigma affinando i propri mezzi.

Jeremy Bentham aveva concepito il Panopticon quale modello carcerario architettonicamente circolare con le celle disposte rigorosamente in ordine radiale, al fine di permettere ad un solo soggetto di controllare tutti i detenuti senza consentire loro di capire se e in quale esatto momento fossero sotto sorveglianza (Foucault 1976, 218 ss.). Sembra quasi emblematico che questo modello di controllo sia poi stato applicato dallo stesso Bentham nel 1794 ad una sua fabbrica, in una icastica coincidenza tra misure di sorveglianza e organizzazione del lavoro del sistema capitalistico.

Smartphone e monitoraggio capitalistico

Questo modello di organizzazione dei sistemi di produzione di massa sostanzialmente si reitera nelle odierne società della trasparenza dove la tecnologia ha reso possibile il sogno distopico orwelliano del controllo totale. Ma con delle differenze.

Gli odierni smartphone – ci dice Han – hanno sostituito le antiche camere di tortura descritte da Foucault in Sorvegliare e punire, perseguendo, grazie alla loro inesauribile produzione di dati che possono, anche quando irrilevanti, ricostruire fedelmente tutte le tracce della nostra vita, l’obiettivo del monitoraggio capitalistico.

Nelle società postmoderne la coazione è stata sostituita dalla seduzione delle volontà che sono portate a volere e introiettare gli stessi fini che il mercato persegue. Quando vogliamo un prodotto, un servizio, un’applicazione, non facciamo che volere ciò che il mercato, grazie all’inesauribile raccolta dati che consentono di tracciare i nostri sogni, i nostri desideri, i nostri bisogni, ci fa, infine, desiderare.

Il potere oggi non fa che delegare le proprie finalità di controllo totale agli stessi individui che si ritrovano frammentati dalle tecnologie digitali, dai social media (non più ‘individuals’ ma ‘dividuals’ come li chiamerebbe Deleuze). La volontà, la libertà, è la misura del giogo che ci lega oggi al mercato. Grazie alla sorveglianza digitale, all’idolatria del ‘dataismo’ che rende la raccolta dati ubiqua, la tecnica stabilizza e perpetua il proprio sistema di dominio attraverso la guida e la programmazione psicologica (Byun-Chul Han 2017, p. 79). I dati personali sono diventati uno strumento commerciale e le persone sono diventati pacchetti di dati destinati allo scambio nelle nostre società sempre più deindustrializzate e volatili.

Diversamente dal Panocticon oggi non c’è più bisogno quindi di un unico soggetto che ci controlli perché tramite la tecnologie noi siamo diventati gli stessi occhi di questo gigantesco meccanismo di monitoraggio di massa. Mentre nel Panocticon però gli individui avevano la sensazione del controllo totale, oggi abbiamo l’illusione di una libertà illimitata e senza confini, globale, perché risponde oramai a bisogni globali e omogenei che introiettiamo attraverso i nostri dispositivi quasi fossero nostri.

Le società della trasparenza hanno, attraverso i social network, amplificato a livello di massa la nostra coazione ad omologarci secondo desideri e bisogni sostanzialmente funzionali al mercato. In questo modo la nostra autonomia però si è trasformata nel suo opposto, in uno strumento di controllo e coercizione dove noi siamo diventati i controllori di noi stessi, realizzando i sogni delle multinazionali della digital economy.

In questo senso la dialettica hegeliana del signore e del servo andrebbe riscritta perché il signore è divenuto servo e il servo padrone di sé stesso. Tramite la tecnologia servo e padrone oggi coincidono.

Questo però non ha bloccato il processo di alienazione che caratterizza gli individui.

È in atto un processo di depauperazione dell’individuo che aliena sempre di più tutto ciò che costituisce la sua individualità: i suoi dati che diventano un diritto di altri, ciò dei mercati, ma anche la sua proprietà che diventa un oggetto di perenne desiderio fisicamente e giuridicamente irraggiungibile.

Nelle società della trasparenza la stessa proprietà si volatilizza e si trasforma in bisogno economicamente valutabile. Non ci sono più oggetti nostri, nel senso fisico del termine, ma servizi on demand da pagare tutte le volte che vogliamo. La macchina grazie a Uber, le biciclette che oggi la sharing economy ci mette a disposizione ogni qualvolta vogliamo, il cibo attraverso le innumerevoli applicazioni di consegna a domicilio, la musica attraverso le piattaforme streaming, la casa con airbnb, tutto diventa un servizio a tempo, un bene che non potrà mai appartenerci totalmente.

Nella società della trasparenza ci stiamo trasformando in una massa globalizzata di diseredati. Così il motto proudhoniano ‘la proprietà è un furto’ forse andrebbe riletto e aggiornato in tempi di sharing economy con ‘la libertà è un furto’, nel senso che appiattendosi su un bisogno senza fine dettato dal mercato ha dematerializzato la proprietà sino a farla sparire.

In un tragico gioco del destino sostenibilità e appropriazione capitalistica dei beni e dei mezzi di produzione vengono qui a coincidere costituendo la misura dei nostri bisogni, dei nostri desideri, della nostra volontà. La violenza dell’antico sistema capitalistico si è allora sostanzialmente trasformata in una violenza basata apparentemente sul consenso e su un’eguale sistematico processo di alienazione, del lavoro, dei mezzi di produzione, dei beni.

La rimozione dell’ultimo ostacolo: il consenso informato

A questo punto la riforma della direttiva sul secondary use appare singolarmente funzionale all’obiettivo di mettere tutte le informazioni che noi più o meno consapevolmente rilasciamo, indipendentemente dalla tipologia, dal carattere più o meno personale, più o meno sensibile, nella disponibilità totale e perpetua di chi ha i mezzi per rielaborale e trasformarle in beni e capitale. Un fenomeno di alienazione delle nostre informazioni, dei nostri dati, che si concentrano in un altrove per noi irraggiungibile e ubiquo. Anche qui in Europa.

In questo contesto, il diritto di accesso ai dati, di cui si è tentato di rinvenire l’origine direttamente alla base dei trattati, di cui la Carta dei diritti fondamentali dell’Unione europea, dopo il Trattato di Lisbona, è oggi forse una delle massime espressioni, non è altro che il diritto ad un controllo illimitato, da cui nessuno domani potrà più sfuggire. Si ribalta così, va sottolineato, tutta l’impostazione del Regolamento generale protezione dati personali che proprio sul concetto di ‘privacy by design’ ha edificato le sue fortune. Un cambio questo forse autolesionistico per quanto riguarda il vecchio continente.

Se il quadro è questo, si comprende come il consenso informato al trattamento dati (con il suo corollario del diritto al ritiro del consenso in qualunque momento e conseguente diritto alla cancellazione dei dati) rappresenta forse un ostacolo, probabilmente l’ultimo e quello più fastidioso per le imprese, alla fruizione indiscriminata delle informazioni che l’espansione progressiva e neoliberista del mercato non può che voler rimuovere quanto prima attraverso un’apertura incondizionata, la trasparenza, che deve essere realizzata di default e sin dalla progettazione (‘by default’ e ‘by design’, appunto), a cui noi tutti saremo costretti, domani, per assecondare quello che è letteralmente affermato come ‘un diritto fondamentale su di noi’. Coronamento di questo di questo processo di disappropriazione dell’individuo in cui nemmeno più la sua storia gli appartiene.

Ci si può allora domandare, in uno strenuo tentativo di difesa del pensiero, perché? A quale logica risponde questo tentativo di smantellare ciò che di fatto funziona, il GDPR, e rappresenta oggi un livello di standard in grado di plasmare il mercato mondiale senza pregiudicare i diritti delle persone coinvolte? Che rappresenta, cioè, una modalità concretamente possibile di innovazione digitale nel mondo che ha al suo centro i diritti di tutti i cittadini europei?

Sicuramente non persegue l’interesse dei cittadini europei che si troveranno proiettati come per magia in un universo normativo del tutto indifendibile, assai simile a quello che si ritrova in America.

Non l’interesse dell’Unione europea e degli Stati che in cambio di poche briciole appalteranno alle multinazionali, specie non europee, uno dei suo asset principali, i dati dei cittadini europei.

Non di quelle multinazionali, come Apple, che hanno fatto della difesa della privacy il tratto distintivo dei propri prodotti e dei propri servizi.

Chi ci guadagnerà sono proprio le multinazionali del digitale come Amazon, Google e guarda caso Facebook che sull’interscambio dei dati hanno costruito le loro fortune.

Si potrebbe dire che se la regolazione cambia il mercato, allora il mercato cambia la regolazione.

Come nella favola dei fratelli Grimm, in Europa ci dev’essere un borgomastro assai sensibile alle note del pifferaio di Hemelin, qualcuno disposto a metter in gioco i propri figli pur di non fare ciò che in teoria sarebbe dovuto.

* Questo lavoro è stato realizzato nell’ambito del “Progetto: Sistemi di Intelligenza Artificiale, decisioni automatizzate e monitoraggio elettronico sui lavoratori: la tutela della riservatezza attraverso i processi pubblici e privati di implementazione della “Privacy by design” (SIAP)” finanziato dall’Università degli Studi di Padova (codice: BIRD189125/18)

__________________________________________________________________

BIBLIOGRAFIA

Foucault M., 1976, Sorvegliare e punire. La nascita della prigione (1975), Einaudi.

Han B.-C., 2014, La società della trasparenza, Nottetempo.

Han, B-C., 2017, Psychopolitics: Neoliberalism and New Technologies of Power, Verso Books.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati