Lo studio

Il DSA non basta a tutelarci dallo strapotere delle Big Tech: la Ue pronta a migliorarlo



Indirizzo copiato

Il DSA è entrato in vigore il 25 agosto. Social network, motori di ricerca, marketplace, servizi di hosting saranno finalmente soggetti a regole in Europa. Ma basteranno a tutelarci da hate speech, disinformazione, cyberbullismo, invasione della privacy, mercato dei dati? Il Parlamento Ue ha cominciato a lavorare su come superare le criticità

Pubblicato il 4 set 2023

Antonino Mallamaci

avvocato, Co.re.com. Calabria



dsa agcom piattaforme

Dal 25 agosto scorso viene applicato in tutta l’Unione europea il Digital Services Act (DSA). Le norme in esso contenute tutelano i diritti di tutti i cittadini dell’UE e le sue prescrizioni vanno osservate da tutti gli intermediari online: social network, motori di ricerca, marketplace, servizi di hosting.

Le grandi piattaforme online interessate dal DSA

Le piattaforme più grandi, tra le quali ovviamente le cosiddette Big Tech, sono definite VLOP (very large online platforms) e VLOSE (very large online search engines), piattaforme e motori di ricerca on line molto grandi. Esse sono soggette a obblighi più rigidi, e sono inserite in un elenco redatto in base al numero di utenti – superiore a 45 milioni – che le utilizzano mensilmente in tutta l’Unione.

I social media Facebook, Instagram, Snapchat, TikTok, X già Twitter, Linkedin, Pinterest, YouTube; i servizi di prenotazione, ad esempio Booking.com; i marketplace Amazon, Zalando, Google Shopping, Alibaba, AliExpress; gli store per le applicazioni Apple App Store e Google Play; Google Maps e Wikipedia; i motori di ricerca Google e Bing.

Tutti loro, nella vecchia Europa, saranno finalmente soggetti a regole. Entrando nel merito, ecco velocemente le novità più significative.

I nuovi obblighi per VLOP e VLOSE

Per quanto concerne la segnalazione dei contenuti pubblicati dagli utenti, fino ad oggi le piattaforme erano ritenute responsabili quando, venutene a conoscenza, non procedevano con la loro rimozione. Adesso, invece, le VLOP e le VLOSE dovranno sempre rimuovere i contenuti segnalati, ma dovranno in più attrezzarsi con un “punto di contatto”, un team in ogni Paese che prenderà in carico le segnalazioni di Autorità e utenti, predisponendo un sistema semplice ed efficace per la raccolta, l’esame e l’eventuale rimozione dei contenuti.

Questi potranno essere rimossi, e i loro autori “bannati”, solo a seguito di preavviso nel quale va esposto in modo chiaro il motivo per il quale si procede, e non soltanto facendo generico riferimento  alla violazione di termini e condizioni del servizio. Per i marketplace è previsto un controllo sui prodotti venduti per verificarne la legalità.

La valutazione dei rischi

Ma il DSA, per i contenuti, va oltre. Onde evitare che, come in passato, il meccanismo della rimozione entro brevissimo tempo provochi, come effetto collaterale, rischi di censura, è stato introdotto il concetto dell’analisi del rischio sistemico. Ogni anno le Big Tech devono perciò presentare un documento di valutazione dei rischi per la libertà d’espressione, la tutela dei minori, i diritti fondamentali, che possono scaturire dal loro utilizzo illegittimo o da abusi. Alla valutazione segue la proposizione di soluzioni per mitigare gli effetti dei rischi individuati: per l’attività di moderazione dei post, di uso degli algoritmi di raccomandazione, per modificare termini, condizioni e design, e altro ancora.

Tutto ciò sarà valutato dalle Autorità e, elemento importantissimo anche ai fini della tanto agognata trasparenza, da ricercatori esterni.

La lotta alla disinformazione e le misure per la trasparenza

Altra previsione altamente significativa riguarda la lotta alla disinformazione. In occasione di pericoli per la salute e la sicurezza dei cittadini le piattaforme dovranno adottare, con la Commissione europea, protocolli di crisi e misure d’emergenza.  Sul piano ancora della trasparenza, devono essere resi noti i parametri in base ai quali gli algoritmi raccomandano i contenuti. In altre parole, la spiegazione sul motivo per il quale un determinato utente vede un certo post, e non altri, diviene obbligatoria. Per limitare le influenze esterne, inoltre, la possibilità di scegliere la modalità cronologica di visione dei contenuti deve essere valorizzata anche nella progettazione. La pubblicità non potrà usare informazioni che riguardano religione, salute, orientamento sessuale. Diviene assoluto il divieto di usare dati relativi ai minori, e di proporre loro avvisi in base alla cosiddetta “targettizzazione”. Ancora sulla pubblicità, le piattaforme hanno adesso l’obbligo di tenere traccia degli investitori e conservare, per ogni post, le informazioni su chi l’ha pubblicato e  pagato, per quanto tempo è stato mostrato e a quale gruppo.

Il contrasto ai dark pattern

Veniamo ai famigerati “Dark pattern” (modello di progettazione ingannevole: interfaccia utente studiata e realizzata per indurlo a compiere azioni indesiderate e svantaggiose, come iscriversi a servizi in abbonamento non voluti, fonte Wikipedia). Ad esempio, l’icona per accettare i cookie colorata, le altre grigie. Il DSA risolve il problema alla radice vietando finalmente tali pratiche. Certo è necessario che i Paesi europei designino al più preso l’Autorità  nazionale incaricata di monitorare e garantire il rispetto del DSA -per l’Italia dovrebbe essere l’AGCOM – anche perché da febbraio 2024 esso diventerà vincolante anche per le piattaforme con meno di 45 milioni di utenti mensili, e le sanzioni potranno ammontare al 6% del fatturato globale.

Il (DSA) interviene in un ambito nel quale l’assenza totale di regole nel Paese dove le piattaforme social sono nate, gli Stati Uniti d’America, ha consentito loro di fare il bello e il cattivo tempo guadagnando fortune colossali.

Il rovescio della medaglia è costituito dal proliferare online di fenomeni deleteri, quali l’hate speech, la disinformazione, il cyberbullismo, l’invasione della privacy, il mercato dei dati e altro ancora. Il DSA (insieme al GDPR per quanto concerne la tutela della privacy) è stato dunque un passaggio necessario, ma non risolutivo al 100% e neanche definitivo.

Social media e sfide per la democrazia: lo studio

Per questo motivo il Parlamento europeo ha ricominciato, subito dopo l’approvazione del DSA, a lavorare su tale vitale questione.

“Piattaforme di social media e sfide per democrazia, stato di diritto e diritti fondamentali” è il risultato di questo impegno ed è uno studio richiesto dalla Commissione per le libertà civili e la giustizia dell’Assemblea al Dipartimento per i diritti dei cittadini e gli affari costituzionali.

In esso si esaminano i rischi che i social media rappresentano per la democrazia, lo stato di diritto e i diritti fondamentali; ci si focalizza sulla governance dei contenuti online; si fornisce una valutazione del diritto dell’UE e delle pratiche del settore; si valutano potenziali opportunità e rischi per i diritti fondamentali e gli altri valori democratici.

In ultimo, il rapporto presenta raccomandazioni per la riforma giuridica e la sua applicazione, concentrandosi in particolare su come le autorità dell’UE e quelle nazionali potrebbero attuare al meglio il DSA.

La democrazia è un presupposto per l’adesione all’UE, ed insieme allo stato di diritto e al rispetto dei diritti fondamentali ne è la base. La Carta dei diritti fondamentali stabilisce che “l’Unione è fondata sui valori indivisibili e universali della dignità umana, della libertà, dell’uguaglianza e della solidarietà; è basata sui principi della democrazia e dello Stato di diritto”.

Partendo da questi principi, è evidente l’importanza dell’informazione e della libertà d’espressione per far sì che l’UE, nella realtà, sia coerente coi principi che enuncia.

Ci concentriamo ora sulla parte finale del poderoso studio che presenta tutte le principali raccomandazioni indirizzate al legislatore, e non solo, nelle aree concernenti incitamento all’odio, disinformazione e pluralismo dei media. Inoltre, in essa si fornisce una panoramica dei punti più importanti per le istituzioni nazionali e dell’UE in tre aree chiave: applicazione del DSA; ulteriore riforma legislativa; finanziamenti e programmi.

Applicazione del DSA

Partiamo dall’attuazione del DSA viene visto come l’inizio di un processo di riforma per:

  • Costruire l’architettura istituzionale per applicare il DSA;
  • stabilire la cooperazione e le migliori pratiche tra i regolatori;
  • sviluppare norme più concrete;

In quest’ambito, sono tre le aree d’azione indicate come prioritarie nei prossimi anni:

  • produzione di un nuovo codice di condotta sull’hate speech per sviluppare ulteriormente e dare concretezza agli obblighi a carico delle piattaforme in questo settore;
  • emanazione di orientamenti ufficiali per chiarire la portata e l’interpretazione del regolamento;
  • stanziamento di risorse tecniche e umane sufficienti per le Autorità di regolamentazione.

Hate speech, disinformazione e qualità dell’informazione

Nello studio, le raccomandazioni sono declinate nel dettaglio per i temi dell’hate speech, della disinformazione e di quello legato a essa, che potremmo definire di qualità dell’informazione.

Per l’hate speech, il primo passo da compiere dovrebbe essere l’adozione di un nuovo Codice di condotta per rafforzare e concretizzare gli obblighi sui rischi sistemici previsti dal DSA per le piattaforme di grandi dimensioni. Il dibattito e le consultazioni sul Codice dovrebbero coinvolgere ricercatori indipendenti, organizzazioni della società civile, comunità emarginate come i Rom, le persone LGBTQ+ e i migranti, con finanziamenti per sostenere la partecipazione di organizzazioni prive di risorse. Data la natura astratta e aperta di importanti disposizioni del DSA – in particolare gli obblighi delle piattaforme molto grandi di valutare e mitigare i rischi sistemici – la produzione di codici di condotta (articolo 45 DSA), ampliati e aggiornati, costituirebbe uno strumento importante per rendere ulteriormente chiari e applicabili tali obblighi e per stabilire più standard specifici, stringenti e coerenti per giungere alla conformità normativa.

Incitamento all’odio, gli obblighi legali per le piattaforme

Gli obblighi legali per le piattaforme di moderare i casi segnalati di incitamento all’odio illegale non sono sufficienti per proteggere gli utenti; nel contempo, il rafforzamento di questi obblighi potrebbe incidere sulla libertà di espressione e la non discriminazione.

Il nuovo codice di condotta dovrebbe:

  • concepire una definizione più ampia di incitamento all’odio online che sia fondata di qualsiasi caratteristica tutelata dall’articolo 21 della Carta dei diritti fondamentali;
  • riconoscere l’oppressione intersezionale, la cui teoria sostiene che le persone spesso affrontano simultaneamente molteplici forme di emarginazione sociale, discriminazione e pregiudizio, che interagiscono tra loro. Le persone che condividono alcune caratteristiche identitarie possono essere emarginate in modi molto diversi. Ad esempio, le donne nere possono avere esperienze molto diverse rispetto alle donne bianche o agli uomini neri. Di conseguenza, perseguire l’uguaglianza richiede un’analisi di come molteplici strutture sociali e pregiudizi si interrelano in situazioni particolari, invece di dividere le persone in ampie categorie di identità;
  • ampliare la portata degli obblighi delle piattaforme oltre l’incitamento all’odio, per contrastare tutte le forme di minacce, molestie e violazioni della privacy che prendono di mira una persona o un gruppo sulla base di una caratteristica protetta;

Le piattaforme dovrebbero essere obbligate:

  • a formare personale di moderazione e destinare risorse tecniche adeguate per tutte le lingue parlate diffusamente, pubblicando poi rapporti dettagliati sulle loro capacità di moderazione in tutti questi idiomi;
  • a sviluppare e testare misure proattive (comprese le modifiche al design) per scoraggiare l’incitamento all’odio e supportarne le vittime;
  • a prevedere consultazioni e partecipazione di gruppi che rappresentano le comunità interessate;
  • a stabilire standard chiari e specifici sulle condizioni di lavoro (retribuzione, formazione, quote di rendimento, orario di lavoro, supporto psicologico) del personale che lavora alla moderazione, interno o esterno che sia.

Cosa occorre per applicare al meglio il DSA

Per applicare al meglio il DSA, Commissione e DSC (Coordinatori servizi digitali) nazionali dovrebbero fornire:

  • orientamenti, in conformità con la decisione della Corte di giustizia in Polonia contro Parlamento e Consiglio [2022], affinché le piattaforme tengano conto degli obblighi in tema di diritti fondamentali (ai sensi dell’articolo 14, paragrafo 4, del DSA e dell’articolo 5 TCR ) e quelle molto grandi dell’obbligo di affrontare i rischi sistemici per i diritti fondamentali (ai sensi degli articoli 34-35 DSA) escludendo l’uso di strumenti di moderazione automatizzati che sono indiscriminati o chiaramente discriminatori. Le piattaforme dovrebbero documentare chiaramente la progettazione, l’uso, le prestazioni e i risultati di tali strumenti, compresa l’accuratezza standard del settore e le metriche di bias, per stabilire la conformità alla normativa;
  • orientamenti sull’obbligo, per le piattaforme, di applicare le proprie politiche sui contenuti in modo diligente, obiettivo e proporzionato (l’articolo 14, paragrafo 4, DSA richiede adeguate capacità di moderazione in tutte le lingue parlate dagli utenti) e di investire adeguatamente in personale di moderazione competente. Tutti i processi di moderazione dovrebbero essere chiaramente e pubblicamente documentati per stabilire la conformità.

Nel supervisionare e far rispettare gli obblighi di mitigazione del rischio sistemico di piattaforme molto grandi (articoli 34-35 DSA) la Commissione dovrebbe attribuire un peso significativo alle modifiche di progettazione e ad altri interventi che mirano a scoraggiare in modo proattivo incitamento all’odio online, molestie e altri fenomeni negativi, invece di moderare o rimuovere i contenuti retroattivamente. Le piattaforme che non investono in tali misure proattive di mitigazione del rischio non dovrebbero essere considerate conformi alle norme UE.

La Commissione e le autorità di regolamentazione nazionali dovrebbero garantire di disporre di personale sufficiente con competenze tecniche e di progettazione UX (User Experience design) e UI (User Interface design) per valutare efficacemente la conformità a tali obblighi. Per tale compito sarebbero d’aiuto procedure efficaci per la collaborazione, la co-investigazione e la condivisione delle conoscenze tra le diverse autorità di regolamentazione.

Sarebbe opportuno prevedere una legislazione UE per regolamentare il personale e il funzionamento dei team di moderazione dei contenuti.

Ecco alcune prescrizioni che potrebbero essere ivi inserite:

  • soglie minime per il numero di dipendenti con competenze linguistiche e di mercato pertinenti per ciascun paese dell’UE in cui opera una piattaforma;
  • regolamentazione delle condizioni di lavoro (formazione, quote di rendimento, orario di lavoro, supporto psicologico) del personale di moderazione;
  • gli Stati membri dovrebbero prendere in considerazione una legislazione simile per regolamentare le condizioni di lavoro del personale di moderazione dei contenuti con sede nello Stato membro interessato e/o di moderazione dei contenuti di tale Stato membro.

Per quanto concerne la disinformazione e l’applicazione del DSA, la Commissione e i DSC nazionali dovrebbero emettere orientamenti in cui si afferma che le pratiche di progettazione sicura dovrebbero avere la priorità rispetto alla moderazione dei contenuti, tranne nei casi in cui la disinformazione mette direttamente in pericolo il pubblico o minaccia i diritti degli altri.

Nel supervisionare e far rispettare gli obblighi di mitigazione del rischio sistemico di piattaforme molto grandi (articoli 34-35 DSA) la Commissione dovrebbe attribuire un peso significativo alle modifiche di progettazione e ad altri interventi che mirano a scoraggiare in modo proattivo incitamento all’odio, molestie e altri rischi, invece di moderare o rimuovere i contenuti retroattivamente. Le piattaforme che non stanno investendo in tali misure proattive non dovrebbero essere considerate conformi. La Commissione dovrebbe disporre di personale sufficiente con esperienza nella progettazione di UX/UI per valutare efficacemente il rispetto di tali obblighi.

La Commissione e i DSC nazionali dovrebbero inoltre emanare orientamenti in cui si afferma che l’obbligo per le piattaforme di applicare le proprie politiche sui contenuti in modo diligente, obiettivo e proporzionato (articolo 14, paragrafo 4, DSA) richiede adeguate capacità di moderazione in tutte le lingue ampiamente parlate dagli utenti, compreso adeguato personale di moderazione competente. Tutti i processi di moderazione dovrebbero essere documentati per stabilire la conformità.

Contrasto alla disinformazione

Una riforma legislativa viene ritenuta necessaria anche per il contrasto alla disinformazione, innanzitutto con una modifica degli articoli 3 e 6 DSA:

serve una definizione di “contenuto illegale” più ristretta e più conforme ai diritti fondamentali che possa comportare responsabilità per le piattaforme, che rimangono esenti da responsabilità come intermediario anche laddove siano a conoscenza di contenuti illegali, tranne nel caso in cui il contenuto crei una minaccia diretta e specifica alla sicurezza pubblica o ai diritti fondamentali di terzi.

Va vietato completamente o limitato molto il targeting personalizzato nella pubblicità politica. Il microtargeting della messaggistica politica ha un impatto negativo sul dibattito civico e politico anche quando non viola i diritti dei singoli utenti.

Il rafforzamento della fiducia e della sicurezza online dovrebbe essere considerato prioritario dall’UE. Sarebbe opportuno il supporto delle associazioni professionali di ingegneri di piattaforma e di personale di moderazione, con cui consultarsi per lo sviluppo delle migliori pratiche del settore e degli standard di sicurezza ai sensi del DSA.

Miglioramento dell’alfabetizzazione mediatica

Altra direttrice consigliata è il miglioramento dell’alfabetizzazione mediatica (con cautela, aggiungono i redattori). Attraverso campagne mediatiche, nelle scuole e in altri spazi civici, l’UE dovrebbe promuovere e finanziare programmi che insegnino le migliori pratiche per:

  • valutare l’affidabilità dei contenuti
  • identificare i bot e la disinformazione promossa strategicamente e i contenuti potenzialmente dannosi e/o disinformativi.

La cautela viene consigliata in quanto l’alfabetizzazione mediatica enfatizza l’azione individuale. Può dunque avere un effetto contrario poiché gli individui possono anche imparare a dubitare di contenuti affidabili. L’educazione all’alfabetizzazione mediatica dovrebbe quindi essere una componente di un programma più ampio volto a promuovere un ambiente informativo affidabile.

Promozione e valorizzazione di media indipendenti

La promozione e la valorizzazione di media indipendenti e affidabili è un tassello nel mosaico per il contrasto alla disinformazione. Dovrebbe essere parte di un programma più ampio per rafforzare il giornalismo indipendente e la fiducia nei media, con appositi finanziamenti.

I media pubblici e le istituzioni giornalistiche indipendenti dovrebbero essere sostenuti per forinire/acquisire servizi di verifica dei fatti e per creare informazioni accurate e facilmente condivisibili su argomenti politici delicati (rischi per la salute pubblica, situazioni di conflitto).

Il pluralismo mediatico e il rafforzamento del giornalismo indipendente e professionale sono un altro aspetto da considerare prioritario nella lotta alla disinformazione e per formare cittadini consapevoli, in grado di informarsi ed esprimersi liberamente e con cognizione di causa.

Quindi, bisogna prevedere finanziamenti e programmi per rafforzare il giornalismo indipendente e professionale, sovvenzionando giornali ed emittenti che praticano questo genere di condotta. Bisogna anche contrastare l’influenza delle istituzioni statali e dei privati nell’allocazione dei finanziamenti e nelle decisioni editoriali.

La Dichiarazione del Consiglio d’Europa del Comitato dei Ministri sulla sostenibilità finanziaria del giornalismo di qualità nell’era digitale promuove l’attuazione di meccanismi per garantire la sostenibilità finanziaria negli ecosistemi dei media nazionali. La Dichiarazione include le principali piattaforme online e incoraggia gli Stati membri a sostenere finanziariamente i media regionali, locali e senza scopo di lucro, a implementare un regime fiscale vantaggioso per la produzione e la distribuzione di contenuti giornalistici e altre misure, tra cui partenariati pubblico-privato per sostenere il giornalismo di qualità. Le istituzioni dell’UE dovrebbero anche fungere da forum per la diffusione delle conoscenze e delle migliori pratiche in tutta Europa riguardo a tali programmi.

Voucher per il giornalismo

Per i finanziamenti e il sostegno ai media, potrebbe essere utilizzato il sistema indiretto dei voucher (“buoni per il giornalismo”) per ridurre al minimo la diretta influenza statale.

Questi programmi di finanziamento dovrebbero concentrarsi in particolare sul sostegno agli editori locali e regionali, considerando che il giornalismo locale è stato particolarmente colpito dalle difficoltà economiche. Esso può essere prezioso nel promuovere la responsabilità politica, ridurre la polarizzazione e contribuire a un ambiente mediatico affidabile.

Nell’applicazione del DSA, i responsabili politici, dovendo analizzare e valutare le pratiche di moderazione e di misurazione dell’audience delle piattaforme social, dovrebbero perseguire una stretta collaborazione con ricercatori accademici e indipendenti per comprenderne al meglio il funzionamento. Una supervisione efficace e una ricerca indipendente contribuiranno a realizzare una maggiore trasparenza, in modo che gli editori possano beneficiare di una migliore comprensione della moderazione dei contenuti, della misurazione del pubblico, dei sistemi di raccomandazione e di altre dinamiche dell’ambiente dei media online.

Conclusioni

Come abbiamo visto, anche se si può affermare che l’UE ha certamente operato bene finora, divenendo punto di riferimento avanzato per tutto il mondo in questo campo, molto rimarrebbe da fare. Il condizionale è d’obbligo, considerando che da qui a un anno scarso potrebbero mutare le condizioni politiche generali dell’Unione. Tuttavia, sembra che la strada tracciata, ormai da tempo, sia divenuta patrimonio comune di tutte le sensibilità politiche rappresentante nel Parlamento europeo. Il tempo però è tiranno, perché la digitalizzazione e la tecnologia corrono veloce, e la regolamentazione fatica a tenere il passo.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3