l'analisi

Privacy dei minori online: Apple detta la linea a Facebook e Google, ma l’autoregolamentazione non basta

I dati di soggetti vulnerabili e minori, sono costantemente esposti al tracciamento e alla profilazione e poi oggetto di offerte di servizi specifici che possono incidere nella formazione della propria identità o reputazione. Le Big Tech corrono ai ripari, ma possiamo accontentarci di iniziative private?

Pubblicato il 30 Ago 2021

Barbara Calderini

Legal Specialist - Data Protection Officer

Il digitale prima della scuola: focus sull’età per costruire il futuro

Dopo la decisione di Apple di introdurre – con l’aggiornamento di iOS 14.5 – la funzione “trasparenza del monitoraggio delle app“, Facebook e Google hanno annunciato dei cambiamenti volti a tutelare gli under 18: la prima decidendo di apportare modifiche ai suoi algoritmi pubblicitari per limitare i modi in cui gli inserzionisti possono rivolgersi agli utenti di tale fascia di età, la seconda con una serie di misure per garantire la sicurezza online degli utenti di età inferiore ai 18 anni.

Le decisioni delle Big Tech non fanno però che mettere ancora più in evidenza la necessità di un intervento pubblico in materia di regolamentazione del tracciamento e della profilazione di minori e altre categorie vulnerabili. Il tema non può, infatti, essere delegato in toto a società provate che fanno business proprio su questi sistemi.

Le big tech ci prendono diritti e futuro: urgono nuove forme di governance

Le misure annunciate da Facebook

Le nuove misure Facebook – previste per le prossime settimane – sono volte a far sì che, tanto i professionisti del marketing, quanto gli inserzionisti, siano fortemente limitati nella generazione delle strategie di vendita basate sulla profilazione degli utenti di età inferiore under-18.

A detta della società di Menlo Park, d’ora in poi, le categorie di targeting per i minori saranno, infatti, limitate solo a età, sesso e posizione; ciò a maggior garanzia delle dovute tutele riconosciute agli stessi. I cambiamenti dovrebbero essere operativi entro breve termine e verranno inizialmente implementati negli Stati Uniti, in Australia, Francia, Regno Unito, Giappone, e a seguire negli altri Stati.

L’iniziativa arriva poco tempo dopo la decisione di Apple di introdurre – con l’aggiornamento di iOS 14.5 – la funzione “trasparenza del monitoraggio delle app“, che va a incidere profondamente nel settore del tracciamento degli utenti e nel mondo della pubblicità (gli sviluppatori di app d’ora in avanti dovranno infatti ottenere esplicitamente il permesso per il targeting degli annunci multipiattaforma) e quindi anche nell’intero modello di business di Facebook, incentrato prevalentemente sui guadagni derivanti dai sistemi di programmatic advertising.

Il test di Reset Australia e la ricerca del Cancer Council

L’annuncio di Facebook è intervenuto nel medesimo frangente in cui il report del gruppo Reset Australia ha reso un quadro piuttosto preoccupante di come le aziende australiane di alcolici e molte altre organizzazioni commerciali impegnate in ambiti altrettanto delicati, come fumo e perdita di peso – non siano in alcun modo ostacolate nella ricorrente diffusione dei rispettivi contenuti pubblicitari sui social media, Facebook in particolare, agli utenti più giovani, nonostante il loro contenuto riservato a persone adulte.

Il rapporto Profiling Children for Advertising: Facebook’s Monetisation of Young People’s Personal Data”, pubblicato il 26 aprile 2021, è, infatti, estremamente accurato nella ricostruzione di come la piattaforma social media, malgrado le ripetute rassicurazioni resa dalla stessa, possa, ancora oggi, profilare i giovani utenti per i più svariati scopi pubblicitari, e ha messo in chiara evidenza quanto queste pratiche si pongano in contrasto con i più elementari canoni di tutela e protezione dei minori.

Nello specifico, Reset Australia, per mezzo della creazione ad hoc di una pagina Facebook “fittizia” il cui unico scopo è stato quello di misurare le caratteristiche delle sponsorizzazioni del social network, ha dimostrato come Facebook e Instagram stessero monitorando non solo l’attività dei giovani sulle loro app, ma anche la loro cronologia di navigazione in rete, per poi farne dei profili che includessero argomenti inappropriati all’età degli stessi come alcol, fumo e perdita di peso estrema. L’ “account esperimento” è stato chiamato “Ozzie news network” e grazie a questo espediente gli studiosi australiani, fingendosi inserzionisti, hanno potuto accedere, attraverso la piattaforma Ads Manager, alle convenienti tariffe per la distribuzione della pubblicità sul social network: per soli $ 3 gli inserzionisti avrebbero potuto raggiungere 1.000 adolescenti interessati all’alcol, con un costo che sale a $ 38,46 per la perdita di peso estrema e $ 127,88 per gli adolescenti interessati al fumo.

Fonte immagine: https://au.reset.tech/uploads/resettechaustralia_profiling-children-for-advertising-1.pdf

“Facebook sembra utilizzare i dati degli adolescenti allo stesso modo degli adulti”, ha affermato Chris Cooper, direttore esecutivo di Reset Australia. “Questo genera una serie di worm su come Facebook tragga profitto dai dati dei minorenni ed esattamente quale livello di protezione preveda contro il targeting inappropriato”.

Circostanze confermate anche dal sondaggio sugli account dei social media del Cancer Council dal quale è derivata la recente ricerca, pubblicata su Public Health Research and Practice, che ha reso noto come il 28% degli account Instagram e il 5% di quelli di Facebook, intestati ai marchi di proprietà delle prime tre aziende di birra, vino e liquori per quota di mercato in Australia, Carlton & United Breweries, Lion e Coopers, in “barba” alle normative vigenti e al codice ABAC (che stabilisce standard specifici da applicare ai contenuto responsabili e alle tecniche di posizionamento del marketing degli alcolici in Australia), non avessero impostato i controlli dei limiti di età previsti per impedire ai bambini di accedere a contenuti correlati all’alcol.

Le contromosse di Facebook

Sono note e copiose le pubblicazioni di studi basati sulle teorie della scienza cognitiva e della psicologia dello sviluppo, come anche le analisi di marketing che esplorano il coinvolgimento e gli esiti della pubblicità mirata sugli adolescenti. Tutti evidenziano una serie di preoccupazioni e sfide tecniche (ad esempio profilazione comportamentale, pubblicità personalizzata, advergaming) e giuridiche (ad esempio mancanza di adeguata autoregolamentazione del settore), che si scontrano con le attuali pratiche di marketing “non etico” che continuano ad esporre gli adolescenti a prodotti, servizi o contenuti inappropriati o fuorvianti quando non addirittura pericolosi e dannosi da un punto di vista sia fisico che psicologico.

Osservazioni che, a partire dal design e dai “modelli scuri – dark patterns” presenti nelle interfacce delle stesse applicazioni popolari tra i minori (app progettate per essere facili da usare, ma molto difficili da capire quanto alle policy di utilizzo e gestione dei dati), hanno sollevato questioni etiche pesanti e acceso dibattiti, tra genitori, professionisti e decisori politici, sul ruolo dei social network online e sul tipo di contributo che gli stessi potrebbero rendere quanto al miglioramento della conoscenza e della competenza degli utenti online, rendendo quanto mai evidente la necessità di una comprensione più olistica dei fenomeni chiave legati all’uso delle piattaforme social e serie valutazioni circa l’impatto che la pervasività del marketing mirato sta comportando per il benessere degli stessi adolescenti, vulnerabili nei confronti delle manifestazioni di qualsivoglia messaggio pubblicitario, senza il consenso della società o una regolamentazione efficace.

Nel settembre 2020, Global Action Plan, si è fatto promotore di una lettera scritta congiuntamente da avvocati, accademici, medici, attivisti per la privacy, sostenitori dei diritti dei bambini e gruppi ambientalisti, chiedendo alle principali aziende tecnologiche, Google, Facebook, Apple, Amazon and Microsoft, di disattivare la pubblicità mirata ai minori di 18 anni.

Ed è in tale contesto di letteratura e confronto che si inseriscono le nuove modifiche preannunciate dall’azienda di Mark Zuckerberg.

Queste riguarderanno Facebook, Instagram e Messenger: così ha affermato la società in un recente post sul blog.

Due i fronti di azione: da Instagram under 13 alle linee di azione per un’esperienza di navigazione sicura

  • Da una parte il nuovo e controverso progetto [1]diretto da Adam Mosseri, capo di Instagram, e Pavni Diwanji (dal Dicembre 2020 a Facebook – dopo l’esperienza con Google dove ha contribuito a sviluppare la nota applicazione “Youtube Kids”), finalizzato a promuovere la versione di Instagram dedicata ai bambini di età inferiore ai 13 anni (come peraltro già sperimentato con Messenger Kids per i bambini di età compresa tra i 6 e i 12 anni), con ciò proseguendo in linea con i propri piani strategici volti alla prossima presentazione di una tecnologia di intelligenza artificiale e machine learning tesa al «riconoscimento automatico dell’età» e all’implementazione di nuove funzionalità di sicurezza e limitazione di visibilità esterna degli account dei minori (come la funzione in grado di bloccare agli sconosciuti l’invio di messaggi verso un minore).
  • Dall’altra, il piano strategico, pensato da Facebook, per garantire ai giovani tra i 13 e i 18 anni un’esperienza sicura all’interno delle sue App, sviluppato attraverso tre linee direttrici:
      1. impostando in maniera predefinita, al momento dell’iscrizione, gli account social dei minori come privati con ciò impedendo by default ai “non contatti” di commentare i contenuti che gli stessi pubblicano, tanto meno di trovarli attraverso gli hashtag o la sezione “Esplora”. I post potranno, quindi, essere visualizzati solo dai follower approvati. Facebook ritiene che non meno dell’80% dei giovani utenti rimarrebbe nell’impostazione privata predefinita;
      2. rendendo più difficile per gli account potenzialmente sospetti entrare in contatto con i profili di minori;
      3. limitando le opzioni degli inserzionisti di raggiungere i minori con gli annunci pubblicitari. Questi, che in precedenza profilavano gli interessi e l’attività degli utenti di minori di anni 18, emersi anche su altri siti Web, per indirizzare i propri annunci, ora potranno limitarsi solo all’età, al sesso e alla località per orientare i relativi annunci.

Tre punti fermi che, Facebook tiene a precisare, sarebbero stati sviluppati tenendo conto dei quadri regolatori vigenti (ICO Age Appropriate Design Code, la Convenzione delle Nazioni Unite sui diritti dell’infanzia, i Fondamenti dei bambini del DPC irlandese e la Direttiva sui servizi di media audiovisivi dell’UE, tra gli altri) e maturati sulla base della consulenza e dei contributi del team denominato Youth Advisors, voluto dallo stesso social per orientare la corretta progettazione delle nuove policy destinate ai giovani.

Un team di esperti di alto livello che si compone di enti ed organizzazioni come il Family Online Safety Institute, il Digital Wellness Lab, MediaSmarts, Project Rockit e il Cyberbullying Research Center, oltre a singoli professionisti come Jutta Croll dello Stiftung Digitale Chancen, Rachel Rodgers dela Northeastern University, Janis Whitlock della Cornell University e altri illustri esponenti del mondo accademico.

Anche le istituzioni pubbliche e i legislatori sarebbero stati costantemente coinvolti nelle fasi di programmazione del piano di sicurezza per i minori di Facebook: a cominciare dall’attenzione dedicata alle esigenze di sicurezza espresse anche nella proposta di legge dei senatori Edward J. Markey (D-Mass.) e Bill Cassidy (R-La.) nota come Children and Teens’ Online Privacy Protection Act[2], fino alla partecipazione attiva alle iniziative promosse dai vari Stati. Facebook dichiara, infatti, essere già membro del comitato consultivo per il consorzio euCONSENT impegnato nella creazione di un’infrastruttura a livello europeo per la verifica dell’età online e la manifestazione di consenso dei genitori.

Intanto, è del 27 luglio scorso l’aggiornamento reso noto da Instagram relativo alle modifiche delle policy sull’advertising e sulla privacy.

“Questi nuovi aggiornamenti rappresentano un importante progresso verso la creazione di un’esperienza più sicura e privata per i giovani su Instagram. In particolare, l’utilizzo dell’apprendimento automatico per capire quando potrebbe non essere appropriato per un adulto interagire con un adolescente mette gli adolescenti al posto di guida per quanto riguarda le persone con cui interagiscono e l’impostazione degli adolescenti sotto i 16 anni in account privati aiuta i giovani a mantenere i loro contenuti meno visibile agli adulti”. Così recita nel post del blog della pagina web Instagram.com, Larry Magid, CEO e co-fondatore di ConnectSafely.org, l’organizzazione no-profit dedicata all’educazione digitale degli utenti.

Ed è in buona compagnia poiché le sue osservazioni vengono riprese e condivise anche da altri esperti sempre menzionati nel blog, alcuni facenti parte del team Youth Advisors: David Kleeman, Vicepresidente senior, Global Trends – Dubit, Justin Patchin, Co-direttore – Cyberbullying Research Center, Janice Richardson, International advisor at Insight SA, tra gli esperti del Consiglio d’Europa.

Anche Google si dichiara prossimo a limitare il targeting degli annunci per i giovani sotto i 18 anni

Mentre Facebook decide di apportare modifiche ai suoi algoritmi pubblicitari e Apple utilizzerà strumenti automatizzati per la scansione di materiale pedopornografico, anche Google ha recentemente annunciato nella pagina “Google India Blog” una serie di misure per garantire la sicurezza online degli utenti di età inferiore ai 18 anni. La nuova politica coinvolgerà diverse funzioni e servizi come Google Play Store, Google Workspace for Education, YouTube (compreso YouTube Kids), Ricerca, Assistant, Parental Control e altri.

Tutto per “offrire a bambini e adolescenti un’esperienza online più sicura”, dichiara la società, che a tal proposito promette: trasparenza, maggiore controllo sulla loro impronta digitale, esperienze di prodotto e servizi su misura, nuovi strumenti per il benessere digitale dei minori, cambiamenti del sistema di targeting e advertising; non ultimo in ossequio ai principi di legal design, migliore comunicazione sulle policy applicate alle pratiche di trattamento dati dei bambini e adolescenti.

A cominciare dagli inserzionisti che non potranno più indirizzare i propri prodotti a utenti di età inferiore a 18 anni utilizzando come parametri di profilazione età, sesso o ubicazione.

Su YouTube, qualsiasi video caricato da un minore, per impostazione predefinita, verrà automaticamemnte “salvato” in modalità privata.

E, inoltre, gli utenti di età inferiore ai 18 anni e i loro genitori o tutori, potranno richiedere la rimozione delle proprie immagini dai risultati di ricerca di Google Immagini.

Anche la Cronologia delle posizioni rimarrà disattivata (senza la possibilità di attivarla) per gli account di utenti di età inferiore a 18 anni.

Nei prossimi mesi Google preannuncia anche l’attivazione della funzione SafeSearch che, unitamente a Google Assistant, congribuirà a potenziare la serie di filtri “benessere” predefiniti destinata agli utenti esistenti che hanno effettuato l’accesso sotto i 18 anni e renderà questa l’impostazione predefinita per gli adolescenti che configurano nuovi account.

Tutto sembrerebbe ispirato da una precisa volontà di maggiore conformità legale e salvaguardia dei minori che Google afferma per l’appunto di voler perseguire attraverso i cambiamenti programmati. Modifiche che, a detta del colosso della ricerca, tengono in massima considerazione le normative introdotte o in procinto di approvazione nei vari paesi del mondo.

Conclusioni

Una cosa intanto appare piuttosto certa: sebbene Facebook o Google si proclamino seriamente intenzionati nel voler limitare la capacità degli inserzionisti circa le tecniche di indirizzamento dei messaggi promozionali agli utenti appartenenti alla fascia di età dai 13 ai 18 anni, certamente, tanto non significherà anche un’analoga ferma convinzione circa l’interruzione delle pratiche di profilazione dei minori messe in atto dagli stessi per altri scopi, oltre l’advertising. E neppure potrà evitare la sovraesposizione del minore che, a causa delle attività di “sharenting” e dell’incauta diffusione di informazioni da parte del genitore o di conoscenti, facilmente, mostra il fianco a forme di trattamento dei dati personali contrari all’interesse dello stesso.

Le problematiche inerenti al tema del consenso in generale e di quello genitoriale, e le possibili soluzioni tecnologiche, evidenziano, senza rischio di smentita, l’endemica inconsapevolezza della maggior parte degli utenti sulle conseguenze pratiche derivanti dalle proprie decisioni assunte online.

E certo, come rivela il Wall Street Journal, altrove, altri attori come Procter & Gamble Co., tra i più grandi inserzionisti al mondo, insieme a una serie di società tech cinesi e società di consulenza globali come Nielsen, Deloitte e PwC, non stanno perdendo tempo nello sviluppo di tecniche alternative e strumenti di device fingerprinting- CAID- in grado di aggirare i presidi di privacy e sicurezza, e così bypassare i limiti di targeting imposti dalle varie piattaforme o dalla tecnologia Idfa – Identifier for Advertisers (Idfa) presente sui device Apple, per consentire comunque la raccolta dei dati.

Facebook e gli altri superpoteri tecnologici americani, ovvero le grandi aziende che “a scopo di lucro” dirigono un sistema pubblico e di servizi pubblici, inevitabilmente continueranno a sedurre e si riveleranno in grado di plasmare il modo di pensare e di agire di individui giovani e meno giovani ed anche delle istituzioni.

L’autoregolamentazione, di fatto, delegata alle piattaforme social, unitamente all’attuale panorama legislativo rappresentato dal diritto fondamentale alla protezione dei dati – dal Children’s Online Privacy Protection Act (COPPA) negli Stati Uniti, al Regolamento generale sulla protezione dei dati (GDPR) in Europa, compresi gli strumenti di soft law – rivelano ancora l’inadeguatezza del livello di cautele e le esigenze di protezione potenziate, che vengono in considerazione quando, nello spazio digitale, i dati personali raccolti si riferiscono a particolari categorie di soggetti vulnerabili, tra cui senza dubbio i minori di età, costantemente esposti al tracciamento come alla profilazione e poi oggetto di offerte di servizi specifici che possono incidere nella formazione della propria identità o reputazione.

La velocità con cui l’egemonia del settore si è imposta nei processi decisionali degli individui giovani e meno giovani, nel condizionamento delle quotazioni di borsa, nelle strategie geopolitiche e persino nella tenuta democratica degli Stati, è paragonabile, infatti, solo al ritardo accumulato dalla società civile e dai legislatori nel percorso di consapevolezza circa la natura trasformativa imponente di questi intermediari digitali, di cui l’ecosistema legato all’advertising, specie rivolto ai minori, è solo una parte, sebbene tra le più remunerative.

Come un’interfaccia obbligatoria in un contesto di scambi e di economia digitale, le Big Tech definiscono, infatti, le condizioni affinché altre organizzazioni possano operare nel loro ecosistema. L’infrastruttura tecnologica alla base dei relativi modelli di sviluppo si impone alla società come passaggio imprescindibile, e anche gli Stati sovrani ne subiscono i pesanti effetti delegittimanti, mentre un po’ ovunque cresce la sensazione di impotenza.

Senza dubbio, investire negli esseri umani o piuttosto nella tecnologia si sta rivelando una scelta ardua, e, certo, ogni possibile soluzione attraversa necessariamente il terreno spinoso della Silicon Valley.

Nel frattempo, il cyberspazio è uno dei sistemi più centralizzati del pianeta in cui i modelli di business di Facebook e delle altre Big Tech in generale si rivelano, troppo spesso, lo specchio di un potere manipolativo dove la protezione dell’identità digitale è limitata dalle decisioni di programmazione prese da un “app designer” e la promozione dei diritti dei minori fatica ad affermarsi come forma di responsabilità condivisa basata sui diritti umani.

Note

  1. Il Piano sta infatti alimentando un copioso dibattito all’insegna di questioni non solo giuridiche bensì anche etiche e sociali: sono numerose le polemiche e le critiche rese note sia da personaggi pubblici come ad esempio Jeremy Hunt, politico e membro del Parlamento britannico che ha espresso la sua opinione in un tweet criticando apertamente le applicazioni di messaggistica per bambini, che da associazioni in difesa dei diritti dei minori, come l’ente no-profit Campaign for a Commercial-Free Childhood, che ha scritto una lettera a Mark Zuckerberg esprimendo ferma contrarietà nei confronti di Instagram under 13- Crf. https://fairplayforkids.org/wp-content/uploads/2021/04/instagram_letter.pdf . Anche i procuratori generali di 44 stati americani hanno invitato Facebook a fermare i piani per creare una versione di Instagram per i bambini piccoli, citando preoccupazioni per il benessere mentale ed emotivo, l’esposizione a predatori online e il cyberbullismo: https://ag.ny.gov/sites/default/files/naag_letter_to_facebook_-_final.pdf. È stato infatti dimostrato da vari studi come l’abuso dei media digitali e dei social sia collegato a un aumento dell’obesità, dei disagi psicologici, della depressione, dell’insonnia e della perdita di qualità del sonno, oltre che del rischio di suicidio. Per un approfondimento ulteriore si veda anche: https://www.agendadigitale.eu/sicurezza/privacy/niente-instagram-ai-bambini-ecco-i-problemi-privacy-e-psico-sociologici/
  2. Cfr. https://www.markey.senate.gov/news/press-releases/senators-markey-and-cassidy-propose-bipartisan-bill-to-update-childrens-online-privacy-rulesLa proposta di legge in questione vorrebbe riformare il Children’s Online Privacy Protection Act (COPPA) vietando alle società Internet di raccogliere informazioni personali da chiunque abbia dai 13 ai 15 anni senza il consenso dell’utente, implementando una sorta di “Digital Marketing Bill of Rights for Teens” che limiti la raccolta di informazioni personali degli adolescenti e istituendo una divisione di marketing e privacy per i giovani presso la Federal Trade Commission, tra le altre cose.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4