gli studi

Sorveglianza, Europa sotto accusa: “Così rafforza i regimi e indebolisce i diritti umani”

Il nuovo, debole, accordo ue sull’esportazione di tecnologie dual use usate allo scopo di sorveglianza. Organizzazioni internazionali per i diritti umani che accusano l’Europa di favorire la bio-sorveglianza in Paesi dittatoriali. Una risoluzione ue contro la crittografia. Un momento critico per il ruolo etico dell’Europa

Pubblicato il 23 Nov 2020

Barbara Calderini

Legal Specialist - Data Protection Officer

surveillance-capitalism

L’Europa si prepara a fronteggiare responsabilità, finora sottaciute, per lo sviluppo di tecnologie di sorveglianza.

  • Il Parlamento Europeo e il Consiglio dell’Ue si prodigano per ultimare le fasi che dovrebbero condurre alla ratifica di un accordo (pendente dal 2018), contenente specifiche norme destinate ad innovare la disciplina dell’esportazione nei regimi extra europei di tecnologie di sorveglianza dual use (per scopi cioè sia civili che militari) foriere di utilizzi ambigui e penalizzanti per i diritti umani. Mossa che va nella direzione giusta ma, secondo molti osservatori, con eccessiva prudenza.
  • Nello stesso tempo, Privacy International, l’Onu e Amnesty International, ciascuna con distinti studi di approfondimento, denunciano severamente e documentano copiosamente le azioni dell’Europa che favoriscono la cybersorveglianza nei paesi considerati “dispotici o parzialmente liberi”. Cina, ma non solo. Negli anni, la collaborazione dell’Ue con i Paesi limitrofi per il controllo delle migrazioni ha rafforzato i regimi autoritari, fornito un boom di profitti per le imprese della sicurezza e ai produttori di armamenti, distolto risorse dallo sviluppo e indebolito i diritti umani. Queste le conclusioni pesanti a cui giungono le organizzazioni in difesa dei diritti umani che chiedono pertanto alle istituzioni un monolitico stop all’uso delle tecnologie di sorveglianza, nell’attesa che si perfezionino le giuste premesse e le riforme normative attese.
  • Avanza anche una risoluzione che vuole indebolire la crittografia per favorire le indagini di polizia.

L’accordo Parlamento-Consiglio dell’Ue su dual use: un debole passo avanti?

Nei giorni scorsi il Parlamento Europeo ha presentato le regole al vaglio dell’accordo sulla vendita e l’esportazione di tecnologie di sorveglianza informatica, come il riconoscimento facciale e lo spyware, che prevedono, tra le altre cose, che le aziende ottengano una determinata licenza per vendere tali prodotti all’estero e che i governi rendano pubblici i dettagli sulle licenze che concedono.

Un progetto di revisione e modifica, che intende porsi in ottica maggiormente rigorosa rispetto all’attuale panorama normativo di cui fa parte anche l’Accordo di Wassenaar (relativo ai controlli sull’esportazione di armi convenzionali e beni e tecnologie a duplice uso) che lega paesi come Argentina, Australia, Austria, Belgio, Bulgaria, Canada, Croazia, Repubblica Ceca , Danimarca, Estonia, Finlandia, Francia, Germania, Grecia, Ungheria, India, Irlanda, Italia, Giappone, Lettonia, Lituania, Lussemburgo, Malta, Messico, Paesi Bassi , Nuova Zelanda , Norvegia, Polonia, Portogallo, Repubblica di Corea , Romania, Federazione Russa , Slovacchia, Slovenia, Sud Africa , Spagna, Svezia, Svizzera, Turchia, Ucraina, Regno Unito e Stati Uniti).

“I paesi europei devono assicurarsi che i regimi autoritari come la Cina o la Russia non ricevano semplicemente la tecnologia più recente per il nostro profitto a breve termine. È stato dimostrato che copiano, rubano e usano questa tecnologia contro di noi e altri paesi democratici”, dichiara Markéta Gregorová, eurodeputata del Partito pirata ceco e relatrice del progetto di accordo.

Premesse severe che vengono ulteriormente sviluppate da Bernd Lange, eurodeputato tedesco, capo della delegazione negoziale: “Il rispetto dei diritti umani diventerà uno standard di esportazione. Il regolamento rivisto aggiorna i controlli sulle esportazioni europee e si adatta al progresso tecnologico, ai nuovi rischi per la sicurezza e alle informazioni sulle violazioni dei diritti umani. Si tratta di una pietra miliare dell’UE, poiché per la prima volta sono state concordate regole di esportazione per le tecnologie di sorveglianza. Gli interessi economici non devono avere la precedenza sui diritti umani.”

Tuttavia, ed è questo uno dei maggiori punti deboli nonché il nodo centrale cruciale per la messa a punto dei nuovi presidi legali (ancorché limitati ai soli Stati dell’UE), l’attuazione degli stessi viene rimessa all’iniziativa dei singoli governi nazionali, interpreti diretti dell’attuazione e della concreta portata prescrittiva dei nuovi paradigmi di legalità.

Nel frattempo, mentre in Europa e in Germania in modo particolare, fino a dicembre investita della presidenza del Consiglio dell’Unione europea, si auspica una celere approvazione del regolamento, in altre parti parte del mondo, in Israele per dirne una tra le più significative, certe problematiche non paiono ancora incidere minimamente sulle fiorenti esportazioni di tecnologie di sorveglianza.

Lo sanno bene gli avvocati di Amnesty International ed i funzionari ONU, non a caso del tutto ignorati dallo Stato di Netanyahu e Gantz quanto alle rispettive “richieste” di moratoria e revoca sulla vendita, il trasferimento e l’esportazione di spyware in tutto il mondo.

Le denunce contro l’Europa delle maggiori organizzazioni internazionali

Il Rapporto “Racial discrimination and emerging digital technologies: a human rights analysis” della Relatrice Speciale ONU Tendayi Achiume.

L’Onu, per il tramite della sua Relatrice su razzismo, discriminazione razziale, xenofobia e intolleranza, Tendayi Achiume, sollecita severamente un’urgente moratoria globale sulla vendita, il trasferimento e l’uso della tecnologia di sorveglianza, almeno fino a quando non saranno in atto solide garanzie per il rispetto dei diritti umani al centro della regolamentazione di tali pratiche.

La richiesta è chiaramente motivata e dettagliata nel Rapporto pubblicato a luglio 2020 che approfondisce e raccoglie le preoccupazioni palesate anche da diverse organizzazioni di attivisti e, tra queste, da Electronic Frontier Foundation – EFF, il cui studio testimonia nello specifico gli impatti negativi della sorveglianza di massa sulle comunità vulnerabili al confine degli Stati Uniti.

La tecnologia non è neutrale o oggettiva“, riferisce Achiume, al Consiglio dei diritti umani delle Nazioni Unite a Ginevra. “È fondamentalmente modellata sulle disuguaglianze razziali, etniche, di genere e di altro tipo prevalenti nella società che tipicamente peggiorano queste disuguaglianze. Ne risultano discriminazioni e disparità di trattamento in tutti i settori della vita, dall’istruzione e dall’occupazione alla sanità e alla giustizia penale “.

Molti gli esempi di discriminazione razziale nella progettazione e l’uso delle tecnologie digitali approfonditi nello studio:

  • oltre ai riferimenti a “Covi-Pass“, il passaporto sanitario sviluppato da Mastercard e Gavi, destinato all’Africa occidentale e al controllo degli spostamenti “dei rifugiati”,
  • anche le applicazioni di riconoscimento facciale in Kenya e India per l’accesso ai servizi pubblici, noti rispettivamente come Huduma Namba e Aadhaar,
  • e ancora, la raccolta obbligatoria di dati biometrici, inclusi campioni di DNA e scansioni dell’iride , per gli uiguri in Cina,
  • gli abusi, perpetrati per il tramite delle piattaforme social, da parte di gruppi buddisti nazionalisti radicali e attori militari in Myanmar per esacerbare la discriminazione e la violenza contro i musulmani e la minoranza etnica Rohingya,
  • e, altresì, i vari bot operanti sui social media che, nel 2019, pubblicavano argomenti disinformativi e fuorvianti relativi all’immigrazione e all’Islam.

Centrale nel rapporto Onu il richiamo alle esigenze di maggiore rappresentanza da garantire alle minoranze etniche nel processo decisionale algoritmico e la chiara definizione delle responsabilità collegate all’uso delle applicazioni di intelligenza artificiale biometrica: “Per prevenire ed eliminare la discriminazione razziale nella progettazione tecnologica sarà necessario avere più minoranze razziali ed etniche. Gli Stati devono anche fornire l’intero spettro di rimedi efficaci per coloro contro i quali le tecnologie digitali emergenti hanno discriminato razzialmente”.

“Ciò include la responsabilità per la discriminazione razziale e i risarcimenti agli individui e alle comunità colpite. Come dimostrano le recenti iniziative volte a vietare le tecnologie di riconoscimento facciale in alcune parti del mondo, in alcuni casi l’effetto discriminatorio delle tecnologie digitali richiederà il loro divieto assoluto”.

Tra i destinatari del pesante monito rientrano a pieno titolo anche le agenzie umanitarie sempre più coinvolte nell’utilizzo delle forme di bio-sorveglianza. Prima fra tutte l’Agenzia delle Nazioni Unite per i rifugiati (UNHCR) che in Afghanistan richiede ai rifugiati che rimpatriano di sottoporsi alla registrazione dell’iride come prerequisito per ricevere assistenza, senza però adeguatamente motivare e presidiare una tale invasiva raccolta.

Stesse preoccupazioni per il Programma alimentare mondiale delle Nazioni Unite che nel 2019 ha collaborato con Palantir Technologies, la nota società di data mining, condividendo i dati di 92 milioni di beneficiari di aiuti economici.

“La raccolta dei dati non è un esercizio apolitico”, osserva il rapporto di Achiume, “specialmente quando potenti attori del nord globale raccolgono informazioni su popolazioni vulnerabili senza metodi regolamentati di supervisione e responsabilità”.

In quanto “tecnologie di classificazione che differenziano, classificano e categorizzano”, i sistemi di intelligenza artificiale sono al centro dei “sistemi di discriminazione”.

E, certo, l’attuale pandemia Covid-19 non può che aver contribuito in tal senso, accelerando il recepimento delle varie forme “biosorveglianza”, incentrate sul monitoraggio dei movimenti e della salute delle persone.

Stesso epilogo per l’interessante studio, di cui si consiglia la lettura, parte del progetto Onu di Achiume, intitolato Technological Testing Grounds e sviluppato da Petra Molna, una delle autrici del rapporto e ricercatrice di tecnologia e diritti umani presso IHRP, in collaborazione con Edri, Statewatch, Privacy International e Homo Digitalis.

Il rapporto di Amnesty International

A settembre anche Amnesty International, auspicando il divieto assoluto dell’uso indiscriminato delle tecnologie di riconoscimento facciale, diffonde un rapporto in cui rende evidente come tre aziende europee con sede in Francia, Svezia e Paesi Bassi abbiano venduto sistemi di sorveglianza ad agenzie di sicurezza cinesi coinvolte nelle violazioni dei diritti umani. Il caso più conosciuto è quello che riguarda la minoranza musulmana uiguri nella regione dello Xinjiang. E il riferimento è rispettivamente a Morpho (ora Idemia), Axis Communications e Noldus Information.

La denuncia di Privacy International

Ma tra tutti il rapporto che ha destato il rumore maggiore, per l’ampiezza e specificità delle denunce (tutte documentate) è senza dubbio quello pubblicato il 10 novembre scorso da Privacy International.

Privacy International e altre tredici organizzazioni di attivisti sia europee che africane, sollecitano duramente l’Unione Europea affinché attui, senza ulteriori indugi, riforme urgenti incidenti sulla disciplina normativa relativa agli aiuti allo sviluppo e ai programmi di cooperazione.

Tanto, a maggior ragione dopo le rivelazioni contenute nei copiosi report pubblicati in questi giorni dall’organizzazione per i diritti umani che convalidano la gravità delle situazioni collegate all’uso delle tecnologie biometriche destinate ad addestrare e dotare le forze di sicurezza.

Molte le organizzazioni europee coinvolte nelle recriminazioni: dall’Agenzia di frontiera Frontex al Servizio europeo per l’azione esterna, dal Fondo fiduciario dell’UE per l’Africa all’Agenzia dell’Unione europea per la formazione delle forze dell’ordine (CEPOL) e all’EUROPOL; comprese le istanze di chiarimento rivolte all’EDPS quanto all’Opinion 2/2018 relativa agli otto mandati negoziali volti alla conclusione di accordi internazionale che consentirebbero lo scambio di dati tra Europol e paesi terzi.

Africa e Balcani

Uno dei fronti di accusa più caldi coinvolge le regioni africane e dei Balcani. A cominciare dall’addestramento della polizia algerina sul monitoraggio dei social media, alla creazione di finti profili, fino alle applicazioni di localizzazione del telefono, compreso il ricevitore Imsi-catcher che consente il monitoraggio segreto del cellulare.

Sin dal 2018 il Niger avrebbe beneficiato di non meno di 11,5 milioni di euro (13 milioni di dollari) stanziati dal Fondo fiduciario dell’UE per l’Africa destinati all’acquisto di droni di sorveglianza, telecamere e software per rafforzare i controlli sulla migrazione, oltre a vere e proprie sessioni di training e formazione a vantaggio degli ufficiali algerini e degli agenti marocchini. Tanto rivela il rapporto Privacy International, comprovando le proprie affermazioni con eloquenti documenti dell’UE ottenuti a seguito di dieci istanze di accesso formalmente presentate dal settembre 2019 agli organi dell’UE.

Oltre al Niger emergono coinvolgimenti anche con le autorità dei Balcani, del Medio Oriente e del Nord Africa impegnate in “tecniche controverse di sorveglianza telefonica e Internet”.

In “Borders Without Borders: How the EU is Exporting Surveillance in Bid to outsourcing its Border Controls”, PI evidenzia come oltre ai sistemi di identificazione e di intercettazione degli abbonati mobili, i dispositivi biometrici di impronte digitali venduti da NEC (leader mondiale nel campo dell’autenticazione biometrica, fornisce sistemi IT e sistemi di rete a governi locali, istituzioni mediche, società di energia elettrica e altri, gestisce filiali in tutto il Giappone ed è diretta da Takashi Niino ed ha sede in Giappone) alle autorità in Bosnia-Erzegovina facciano parte della stessa policy di cooperazione europea riscontrata in Niger.

E dunque sono vari i finanziamenti erogati dall’UE e impiegati per l’implementazione di un sistema di intercettazione telefonica in Bosnia che sembrerebbe essere supportato dal gigante tecnologico svedese Ericsson in collaborazione con l’Agenzia statale per le indagini e la protezione (SIPA), e di applicazioni di identificazione biometrica in Costa d’Avorio e Senegal volte a favorire il rimpatrio dei migranti dall’Europa.

Non da meno il sistema di controllo video intelligente automatizzato finanziato e installato al confine tra Ucraina e Bielorussia. E altri altrettanto interessanti disponibili per un approfondito esame al seguente link.

Il ruolo dell’Agenzia della formazione europea delle forze dell’ordine (Cepol)

In modo particolare emerge il ruolo centrale svolto l’Agenzia dell’Unione europea per la formazione delle forze dell’ordine (CEPOL) con sede in Ungheria che dal 2006 opera come agenzia ufficiale dell’UE responsabile dello sviluppo, dell’attuazione e del coordinamento della formazione per i funzionari delle forze dell’ordine provenienti da tutta l’UE e non.

Forte di un budget che da 5 milioni è salito a oltre 9,3 milioni di euro, l’Agenzia avrebbe dispensato piani di training che spaziano dall’antiterrorismo, alla criminalità informatica, alle tecniche di cybersorveglianza, offrendo la propria formale collaborazione alle autorità di Algeria, Giordania, Libano, Marocco, Tunisia e Turchia.

I corsi di formazione praticati dall’Agenzia europea, ritenuti “pericolosamente controversi” si riferiscono in modo specifico alle tematiche legate alle tecniche di analisi di Open Source Intelligence con tanto di test pratici sull’identificazione delle informazioni su varie piattaforme.

A tal riguardo, le diapositive allegate nel report PI sono molto eloquenti.

Tra queste ci sono quelle che promuovono strumenti di hacking per iPhone come GrayKey in combinato con Axiom, un’applicazione realizzata dal partner della polizia canadese, Magnet Forensics, che sembrerebbe in grado di afferrare il portachiavi Apple dall’interno dell’iPhone, rendendo disponibili l’accesso alle app e ai dati all’interno.

Il ruolo dell’Agenzia europea della guardia di frontiera e costiera (Frontex)

L’Unione europea da sempre si rivela come uno dei principali donatori mondiali di aiuti pubblici allo sviluppo (sono 75,2 i miliardi di euro erogati nel 2019).

Secondo le risultanze ottenute da Privacy International tanto si tradurrebbe in una sorta di influenza economica, diplomatica e di sicurezza in grado di favorire il controllo politico e il monitoraggio delle frontiere per fini di sorveglianza di intere popolazioni, attivisti, giornalisti e movimenti di opposizione.

Emerge in particolare in tale frangente del report di PI anche il ruolo dello Stato italiano alla guida del programma finanziato dal Fondo fiduciario dell’UE per l’Africa, che prevede la formazione e l’equipaggiamento delle autorità libiche.

Un documento del 2018, esaminato da Privacy International, descrive in dettaglio la formazione, fornita dall’agenzia europea di controllo delle frontiere Frontex all’Amministrazione generale per la sicurezza costiera (GACS) della Libia.

I documenti ottenuti renderebbero evidente come Frontex (peraltro già sotto i riflettori per le accuse di complicità in respingimenti illegali e spesso pericolosi volti a impedire ai richiedenti asilo di attraversare il Mar Egeo), impegnata sui diversi confini, abbia insegnato ai partecipanti varie tecniche su come mettere al sicuro determinate “prove a fini giudiziari e di intelligence”, o come acquisire le impronte digitali, anche da “bambini e persone con vulnerabilità”, nonché “tecniche di autodifesa di base destinate all’occorrenza ad essere utilizzate durante l’arresto dei sospetti a bordo, compreso l’uso della forza e le sue limitazioni”.

Questo il rimando all’approfondimento presente nelle pagine web di Privacyinternational.org:

Il ruolo di Civipol nel contesto del progetto UE in Senegal

Stando al report di PI, Civipol, l’agenzia francese impegnata in specifiche aree di competenza tra cui sicurezza, controllo delle migrazioni e protezione civile, avrebbe contribuito, nel 2017, alla creazione di un fumoso sistema biometrico di massa, realizzato grazie a fondi di aiuti provenienti dall’UE e destinati al territorio dell’ Africa occidentale, Senegal nel caso specifico, per fermare la migrazione e facilitare le deportazioni.

Obiettivo dichiarato dell’ambizioso progetto risulterebbe essere “quello di contribuire nel rispetto diritti individuali legati al riconoscimento della propria identità migliorando il sistema di informazioni sullo stato civile e il consolidamento di un fascicolo di identità biometrica nazionale”. Tuttavia, secondo i ricercatori di PI il contesto nel quale un tale piano di digitalizzazione verrebbe realizzato non considera adeguatamente le peculiarità insite nello specifico territorio alla luce dei quadri regolatori applicabili e il rispetto dei principi alla base delle normative di protezione dei dati e delle libertà fondamentali. Principio di trasparenza e correttezza in primis. Nessuna valutazione d’impatto avrebbe, in modo particolare, preceduto l’implementazione della relativa tecnologia.

Tecnologia che si presenta fortemente invasiva comportando l’acquisizione di numerosi set di dati personali tra cui, oltre ovviamente a nomi e date di nascita, anche impronte digitali, scansioni del viso o dell’iride.

Oltre al Senegal e a Civipol, i finanziamenti del Fondo fiduciario dell’UE per l’Africa (istituito sulla scia della “crisi migratoria” del 2015 in Europa), esaminati grazie ai riscontri ottenuti da PI alle richieste di accesso, diretti allo sviluppo di sistemi di identificazione biometrica, hanno riguardato direttamente anche Costa d’Avorio e l’agenzia di sviluppo e cooperazione internazionale belga, Enabel.

Conclusioni

Il nuovo “panottico” è digitale. Ce lo ha già raccontato anche Shoshana Zuboff nel suo ultimo libro “The age of surveillance capitalism”.

Iride, retina, palmo, volto, vene, orecchio, voce, andatura. E ovviamente impronte delle dita. I sistemi biometrici sono sempre più protagonisti della dimensione sociale. I principali fornitori di riconoscimento facciale includono Accenture, Aware, BioID, Certibio, Fujitsu, Fulcrum Biometrics, Gemalto, HYPR, Idemia, Leidos, M2SYS, NEC, Nuance, Phonexia e Smilepass. Molti sono europei, altri si profilano all’orizzonte.

Il riconoscimento facciale è sedimentato e certo “ben sovvenzionato” da tempo. In Europa, Cina e ovunque: in Florida, l’ufficio dello sceriffo della contea di Pinellas (PCSO) gestisce uno dei più grandi database di riconoscimento facciale in America.

Eppure la tecnologia mostra ancora carenze gravemente allarmanti. I maggiori problemi si concentrano sulle sperimentazioni dei sistemi biometrici di riconoscimento e sorveglianza da parte della polizia e altre autorità specie militari. Negli usi asserviti ai governi autoritari. Ma tanto non esaurisce l’ampia portata dei possibili abusi e discriminazioni ai quali certe applicazioni si prestano.

Patrick Grother, figura di spicco alla guida dei test del NIST, illustrando le risultanze dello studio pubblicato nel 2019 ha evidenziato come alcuni algoritmi manifestino maggiori probabilità di identificare erroneamente individui afroamericani o asiatici rispetto ai maschi bianchi “con fattori da 10 a oltre 100 volte”.

E anche Kate Crawford e Trevor Paglen nel loro saggio sul progetto, “Excavating AI: The Politics of Images in Machine Learning Training Sets”(2019) ce ne hanno fornito un’esauriente spiegazione.

E dunque, se gli algoritmi non sono neutrali imparziali ed oggettivi e molto difficilmente le loro implementazioni potranno tradursi in mere scelte amministrative, di ordine pubblico e sicurezza nazionale o di business, perché si continuano a tollerare e favorire scelte “politiche” che prestano il fianco alle ambizioni degli stati dispotici o anche democratici primattori dei diversi approcci di sorveglianza a diretto vantaggio dello sfruttamento commerciale e governativo a scapito dei diritti umani?

La risposta a questa domanda è complessa e non conforta: probabilmente ciò è dovuto alla mancanza di interpreti autorevoli e di approcci globali e solidali, entrambi espressione di “alta politica”.

È certamente una questione di alta politica e quindi di persone il successo che certe scelte, anche di natura regolamentare, saranno in grado di determinare rispetto alle evoluzioni sociali in corso e alla dimensione orizzontale dei poteri privati forti.

I soli adeguamenti normativi, sebbene necessari, non basteranno a garantire trasparenza e correttezza. Ugualmente non saranno sufficienti le pronunce delle alte Corti per definire precisi ambiti di responsabilità e, neppure i progressi tecnologici, tesi ad abbattere il margine di fallacia dei processi algoritmici, potranno arginare adeguatamente i rischi di discriminazione. E in tutto questo in tanti continueranno a “fidarsi supinamente” degli (ab)usi promossi da queste tecnologie, vittime di un approccio incauto che rende la sorveglianza parte integrante e naturale del panorama contemporaneo.

“L’UE dovrebbe essere un promotore dei diritti, non un abilitatore delle pratiche di certi governi destinate ad indebolirne la promozione”, si legge nella lettera di PI indirizzata ai commissari europei Josep Borrell Fontelles, Věra Jourová, Jutta Urpilainen e Olivér Várhelyi, firmata, tra gli altri, dall’African Freedom of Expression Exchange, ECNL | European Center for Not-For-Profit Law, Associazione Ricreativa e Culturale Italiana (ARCI) e Human Rights 360.

“Invece di aiutare le persone che affrontano minacce quotidiane da agenzie di sorveglianza irresponsabili, inclusi attivisti, giornalisti e persone che cercano solo una vita migliore, questo “aiuto” rischia di fare l’esatto contrario”, denuncia Edin Omanovic Advocacy Director di Privacy International, che non ha mancato neppure di sollecitare la doverosa attenzione verso la dirompente ondata di sorveglianza conseguente alla crisi epidemiologica in corso: “L’ondata di sorveglianza che stiamo vedendo è davvero senza precedenti, superando persino il modo in cui i governi di tutto il mondo hanno risposto all’11 settembre. Sarebbe incredibilmente miope consentire agli sforzi per salvare vite umane di distruggere invece le nostre società”.

E dunque ampio spazio all’alta politica, semmai ancora ve ne fosse: che rivela l’arte dei migliori, in grado di esprimere un pensiero politico fluido e di lungo respiro capace di generare una cultura in grado potenziare valori radicati ed impregnati di umanità così da fornire adeguate risposte ai sonori biasimi sollevati.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3