diritto d’autore

Equo compenso minacciato dall’IA: la causa contro Google e l’urgenza di nuove regole



Indirizzo copiato

La parziale vittoria di Alphabet-Google in una class action indetta da noti scrittori, giornalisti e persino alcuni minorenni, ripropone questioni cruciali sui diritti d’autore e sulla privacy nell’uso dei big data e delle IA. La disputa potrebbe giungere alla Suprema Corte, evidenziando la complessità giuridica del settore

Pubblicato il 2 lug 2024

Luciano Daffarra

C-Lex Studio Legale



intelligenza artificiale pc

La recente vittoria parziale del gruppo Alphabet-Google in una controversia giudiziale che vede opposte le loro imprese, impegnate nello sviluppo di servizi di intelligenza artificiale quali “Bard”, “Imagen”, “MusicLM” e altri, fra cui “Gemini” di prossimo lancio, nei confronti degli attori di una class-action radicata di fronte alla Court of Northern District of California, propone una volta ancora il tema della legittimità o meno del trattamento dei dati personali e della tutela del diritto d’autore nell’acquisizione dei big data da parte delle piattaforme digitali del settore.

In particolare, sempre più centrale nel dibattito sulla regolamentazione dell’IA, è il tema dell’equo compenso agli editori e ai giornalisti.

L’ordinanza del 6 giugno e la possibilità di ricorso

Con l’ordinanza del 6 giugno 2024 il giudice, dato atto della presa di posizione espressa da altro magistrato giudicante in una causa che vede opposti i consumatori e le società Open AI e la sua controllante Microsoft[1], ha ritenuto di consentire ai ricorrenti – che includono noti scrittori, giornalisti e persino alcuni minorenni la cui privacy sarebbe stata violata, al pari dei diritti d’autore dei primi – di presentare alla Corte un secondo ricorso emendato nei 21 giorni dalla data del citato provvedimento.

In tal modo, ha scritto nel suo provvedimento il giudice Araceli Martinez-Olguin, i ricorrenti dovranno tenere conto delle indicazioni provenienti dal precedente giudizio, per evitare le sovrapposizioni con i fatti e gli argomenti già presenti in tali atti e per rimuovere dall’atto le considerazioni ultronee ed extra giuridiche che li connotano.

Le questioni legali e il futuro coinvolgimento della Suprema Corte

Le questioni da affrontare non mutano di molto rispetto a quelle presenti nelle controversie già pendenti sulla stessa materia[2], ma non si può negare che si tratti di problemi di grande rilevanza che necessitano, dopo il vaglio dei tribunali di prime cure, di valutazioni che, con grande probabilità, porteranno nel tempo a coinvolgere la stessa Suprema Corte, dopo l’esame dei giudici di appello.

Non si tratta di quesiti che toccano solo i temi relativi alla tutela dei diritti personalissimi, come il diritto all’immagine, alla voce e alla riservatezza[3]. Sono vicende che non si limitano a incidere sul diritto d’autore e sui diritti di proprietà intellettuale in termini generali: essi riguardano soprattutto la salvaguardia dell’individuo, le cui scelte, personali e politiche non possono essere indirizzate da chi gestisce algoritmi in grado di guidare l’essere umano verso decisioni della cui portata lo stesso non sia posto in condizione di essere del tutto consapevole[4].

Dati e informazioni portati in tribunale

Gli attori nella causa di cui ci occupiamo hanno elaborato e portato all’attenzione del tribunale e del pubblico dati e informazioni che, seppure giudicate eccessive e generiche rispetto alle domande svolte, appaiono di grande importanza per comprendere l’incidenza che va assumendo l’uso degli apparati di intelligenza artificiale rispetto ai comportamenti umani.

Nell’affermare che l’impiego dei servizi di Google e delle sue collegate identificati in atti, comporti serie limitazioni ai diritti degli utenti della rete e ai titolari dei diritti di proprietà intellettuale, la class action propone alla Corte fatti che sono ormai la rappresentazione, se vogliamo sempre più affinata, dettagliata ed evoluta, di quello che da tempo viene scritto e ripetuto in molte aule dei tribunali statunitensi: i gestori degli algoritmi si sarebbero appropriati abusivamente di una quantità definita “inimmaginabile” di contenuti in grado di elaborare e fornire risposte sempre più sofisticate a qualunque quesito, al contempo comprimendo i diritti altrui e sottraendo il valore economico dei dati abusivamente raccolti, siano essi personali o proprietari.

Scraping e fair use: le contestazioni

Per effettuare lo scraping (raschiamento) – affermano gli attori – i convenuti utilizzano i cosiddetti “bot” o applicazioni robotizzate, le quali vengono implementate in maniera tale che esse eseguono attività automatizzate, le quali scansionano e copiano le informazioni reperite sulle pagine del World Wide Web, per poi archiviarle e indicizzarle, nelle loro gigantesche banche di dati[5].

Se è vero, quindi, che, per quanto concerne le asserite violazioni del diritto d’autore vi è l’aperta questione riguardante la validità giuridica della difesa, svolta dai giganti tecnologici al fine di trovare una scriminante alle loro massive attività di acquisizione dei dati altrui, fondata sulla dottrina del fair use, appare assai più complicato giustificare a tale stregua l’attività di rastrellamento e di trattamento senza consenso dei dati personali delle persone fisiche[6].

Le contestazioni specifiche contro Google

Le contestazioni mosse dai ricorrenti a Google, le quali ovviamente valgono anche per gli altri detentori di sistemi di intelligenza artificiale e vanno a tali soggetti estese, includono il trattamento illecito dei dati sensibili dei minori[7], la raccolta di dati riguardanti la salute delle persone, la diffusione di informazioni inesatte che ingannano utenti e persino professionisti di alto rango, la creazione da parte degli utenti di deepfake, di cloni digitali che possono tradursi in vere e proprie truffe a danno dei terzi, oltre che di iniziative ricattatorie.

Il ricorso degli attori di questa class-action evidenzia poi che per il tramite dei deepfake[8] diviene possibile influenzare il voto elettorale, ponendo seri problemi già da ora in vista delle elezioni presidenziali U.S.A. del novembre 2024. Il medesimo atto introduttivo del giudizio pone l’accento sul problema delle informazioni troppe volte errate che vengono fornite agli utilizzatori dagli apparati di intelligenza artificiale, portando esempi lampanti in questa direzione, spesso imbarazzanti per il loro contenuto contraddittorio[9].

Diritto all’oblio in pericolo: le misure richieste

Anche il diritto all’oblio viene messo a repentaglio dalla raccolta dei dati personali, in quanto la loro disponibilità negli archivi e nei prompt degli apparati di intelligenza artificiale perpetua l’elaborazione e la disponibilità pubblica di informazioni su qualunque individuo senza distinguere fra notizie attuali e passate che lo riguardino.

Le misure chieste dai ricorrenti al giudice di questa causa vanno a toccare una sequela di domande inibitorie e risarcitorie che comprendono: la violazione delle norme in materia di concorrenza sleale per le azioni di harvesting abusivo dei dati personali, sanitari e finanziari raccolti da Google unitamente ai contenuti protetti da copyright che avrebbero riguardato l’intero compendio della rete telematica globale[10].

Contestazioni di negligenza e riservatezza

Si aggiungono a tali fattispecie, descritte nell’atto introduttivo del giudizio, la contestazione di atti di negligenza da parte dei resistenti nell’ottenimento dei dati utilizzati per addestrare i modelli di intelligenza artificiale da loro posseduti, che avrebbero richiesto l’adozione di un’adeguata diligenza nel verificarne l’origine e il contenuto allo scopo di evitare prevedibili danni agli attori.

Del pari, viene addebitata alle parti convenute l’invasione del diritto alla riservatezza tutelato dalla Costituzione della California, in quanto la raccolta massiva e il trattamento dei dati personali dei ricorrenti risultano altamente offensivi per una persona che incarni l’immagine della persona di ordinaria ragionevolezza.

Anche la ricettazione e la “conversione abusiva” fra gli illeciti contestati

Fra gli illeciti oggetto di contestazione i ricorrenti hanno anche richiamato le disposizioni che mirano a contrastare il reato di ricettazione, in quanto i dati e le informazioni appropriate dai convenuti sono stati sottratti ai legittimi titolari per essere poi utilizzati da Google allo scopo di addestrare i modelli di intelligenza artificiale nella consapevolezza della loro provenienza illecita.

Tale fatto implica come conseguenza anche la commissione di atti di cosiddetta “conversione” abusiva dei beni di proprietà degli attori, in quanto essi sono stati trasformati in qualcosa di diverso rispetto alla loro essenza. Secondo la legge della California, la “conversione” si configura come illecito civile ogniqualvolta una persona, illegalmente e senza il permesso del titolare, prende o interferisce con il possesso della proprietà di un’altra persona.

Arricchimento senza causa e richieste interinali

Consegue agli addebiti mossi a Google anche quello di arricchimento senza causa, che deriva – come pure è stabilito dalla legge italiana – dalla locupletazione di un soggetto a danno di un altro. Tale ipotesi si configurerebbe secondo i ricorrenti in quanto l’impresa di Cupertino – ma lo stesso può dirsi per i suoi competitor del settore – avrebbe generato miliardi di dollari di fatturato attraverso lo sfruttamento dei contenuti coperti dai diritti di privativa, in violazione del Digital Millennium Copyright Act (DMCA) e, in particolare, del Titolo 17 U.S. Code § 1202(b), agendo sia come responsabile diretto delle violazioni, che assumendo la responsabilità vicaria che essa assumerebbe attraverso l’omissione del controllo sull’operato delle imprese controllate che esercitano l’attività di gestione dei modelli di intelligenza artificiale che hanno incorporato i dati utilizzati per fornire il servizio offerto al pubblico.

Sulla scorta delle contestazioni mosse alle convenute, i ricorrenti hanno svolto la domanda diretta ad ottenere in via interinale:

  • la sospensione dell’uso commerciale delle piattaforme di intelligenza artificiale di cui tali imprese dispongono fino al momento in cui un’entità indipendente accerti, prima del loro lancio e non successivamente ad esso, il loro corretto funzionamento;
  • l’implementazione di protocolli che stabiliscano criteri di responsabilità per gli illeciti commessi dai gestori delle piattaforme di IA e impediscano loro di sviluppare ulteriormente a fini commerciali i loro prodotti in assenza di regole che rispettino i diritti e i valori umani, compensando i ricorrenti per i dati loro sottratti, da cui dipende il funzionamento degli apparati di intelligenza artificiale;
  • porre in atto strumenti di difesa informatica capaci di proteggere i dati personali degli utenti della rete, in conformità con le leggi vigenti;
  • attuare protocolli di trasparenza che impongano ai gestori di questi apparati di rivelare i dati da essi raccolti, fornendo le informazioni relative alla loro provenienza;
  • garantire agli utenti il diritto di negare l’accesso ai propri dati e contenuti (c.d. “Opt-out”);
  • imporre ai convenuti ulteriori misure atte a prevenire gli effetti del sopravanzamento di questi algoritmi rispetto all’intelligenza umana per impedire che essi possano danneggiare gli stessi individui;
  • fissare ulteriori salvaguardie per il controllo delle attività degli apparati di intelligenza artificiale, la liquidazione dei danni causati agli utenti e per la suddivisione degli utili derivanti dalle attività di raccolta ed utilizzazione abusiva delle informazioni elaborate dagli apparati di intelligenza artificiale, non senza avere prima distrutto e rimosso i dati raccolti con provenienza dai ricorrenti, i quali dovrebbero essere risarciti di ogni danno diretto, indiretto e consequenziale patito per effetto del comportamento dei convenuti.

Incertezza giuridica e problemi di prova

Dall’illustrazione dei fatti di questa causa e dalla decisione assunta dal magistrato giudicante si evince la sostanziale incertezza giuridica che contraddistingue i temi della raccolta e del trattamento dei dati sensibili e di proprietà intellettuale acquisiti tramite i motori di ricerca dei gestori degli apparati di intelligenza artificiale. Vi è, da un lato, l’oggettiva difficoltà da parte dei ricorrenti di provare adeguatamente la sistematica derivazione del risultato prodotto dai modelli di IA dall’elaborazione dei contenuti appartenenti ai titolari dei diritti.

Vi sono indubitabilmente evidenze puntuali di corrispondenza fra input e output dei contenuti trasformati dagli apparati che sviluppano gli algoritmi in questione, ma l’impressione è che non vi siano ancora elementi probatori comprovanti l’origine abusiva certa di una parte sostanziale dei risultati offerti dai vari servizi di intelligenza artificiale rispetto a quanto è stato da essi rastrellato sulla rete per essere poi elaborato dai loro algoritmi.

Copia cache e fair use

Dall’altro lato, non si è compreso appieno in quale modo l’uso temporaneo (c.d. “copia cache”) dei contenuti protetti elaborati dagli apparati in questione si possa fare rientrare nell’eccezione del fair use e, se tale scriminante, possa essere idonea a legittimare l’elaborazione trasformativa dei miliardi di dati che sono gestititi in questo ambito.

Incidono poi, nel contenzioso pendente in questa materia l’aspetto positivo dell’avanzamento tecnologico generato dall’intelligenza artificiale, capace di portare un sostegno allo sviluppo economico e al progresso scientifico del mondo.

Complessità della regolamentazione giuridica

Tutte le circostanze sopra evidenziate sembrano impedire, o forse solo rallentare, l’adozione di misure che – limitandoci a quelle sopra tratteggiate chieste dai ricorrenti – porrebbero freni e limitazioni gravose alla nuova tecnologia, tanto da generare potenziali problemi concorrenziali fra i paesi del mondo occidentale, ove esistono regole di mercato e norme antitrust, e altre parti del pianeta ove gli strumenti di controllo sui dati e sui contenuti passano in secondo piano e lasciano ampi spazi a uno sviluppo degli apparati di IA totalmente deregolato.

Ci troviamo quindi di fronte a una situazione estremamente complessa non solo per quanto riguarda la carente disciplina giuridica di un segmento innovativo del mercato delle comunicazioni digitali, ma soprattutto in riferimento ai riflessi che l’impiego di tali strumenti innovativi riverbera sulla tutela dei valori fondanti dell’attuale sistema regolamentare dei dati personali e della proprietà intellettuale, i quali rischiano di essere travolti o quantomeno fortemente sacrificati.

Gli interventi legislativi

Consapevoli di questi pericoli non sono solo i legislatori dell’Unione Europea che hanno da poco varato disposizioni in materia tramite l’AI Act[11], ma risultano coinvolte nel fronteggiare i problemi pure tutte le imprese e le istituzioni a livello globale che operano per l’affermarsi dei diritti alla riservatezza e alla promozione della creatività umana, oltre la difesa dei diritti civili, in un contesto democratico e non discriminatorio. Gli interventi della presidenza statunitense in questa direzione sono stati oggetto di un “Executive Order” emesso il 30 ottobre 2023 da Joe Biden, ma essi non sembrano avere avuto finora l’atteso seguito, eccezione fatta per la presentazione del disegno di legge del MP Schiff che mira ad ottenere informazioni trasparenti sui dati raccolti dai gestori degli apparati di IA[12].

A rischio i diritti degli autori e degli editori

Fra le molteplici questioni che si pongono alla nostra attenzione quale effetto del trattamento non controllato dei contenuti protetti dal diritto d’autore vi sono quelle che riguardano i diritti degli autori e degli editori, fra cui spiccano quelli che riguardano i giornali.[13] Essi stanno già soffrendo una situazione di grave rischio per la loro sopravvivenza la quale non può essere certamente risolta, come si è visto di recente, tramite transazioni extra-giudiziali volte ad affrontare il problema dell’appropriazione abusiva dei dati attraverso la mera liquidazione di somme risarcitorie, seppure ingenti.

Vi sono, infatti, diritti individuali irrinunciabili che – quantomeno in seno all’Unione Europea – non possono essere tradotti in somme forfetarie.

L’equa remunerazione spettante agli autori e agli editori di pezzi giornalistici

Ci riferiamo specificamente alle diverse forme di equa remunerazione spettante agli autori e agli editori di pezzi giornalistici, disciplinati dall’art. 43-bis della Legge Autore, le quali hanno trovato puntuale regolamentazione da parte dell’Ag.Com con la Delibera 3/23/CONS, in vigore dal 25 gennaio 2023.[14]

Tale normativa riconosce l’equo compenso per l’esercizio dei diritti di riproduzione e di comunicazione al pubblico degli articoli giornalistici da parte dei prestatori di servizi, incluse le imprese di media monitoring e di rassegna stampa.

L’equo compenso in argomento viene calcolato sulla base dei ricavi pubblicitari derivanti dall’utilizzazione on-line delle pubblicazioni, ma al netto dei ricavi derivanti all’editore dal traffico di reindirizzamento sul sito web delle pubblicazioni utilizzate dal prestatore terzo. Tale diritto alla remunerazione deve essere accompagnato da obblighi di comunicazione e di informazione circa il numero di utilizzazioni e i ricavi che fanno capo agli stessi prestatori di servizi.

A tale stregua, limitando il nostro esame alle testate giornalistiche, nella fattispecie dell’ingestione e utilizzazione dei contenuti degli articoli in seno agli apparati di intelligenza artificiale, c’è da chiedersi quale possa essere l’applicazione dei principi per la determinazione dell’equa remunerazione sui file che vengono incamerati dagli apparati di intelligenza artificiale, in assenza di rendicontazioni controllabili da parte dei titolari dei diritti.

Allo stato non è possibile fornire una risposta a tale quesito e, temiamo, che fino a che la materia non troverà una sua propria regolamentazione i rischi per la tutela dei dati e dei contenuti saranno inevitabili e, forse, impossibili da determinare e risarcire.

Note


[1] Si tratta della causa intrapresa l’8 settembre 2023 dall’artista e cantante Marylin Cousart e da altri ricorrenti nella class-action, rivolta nei confronti di OPEN AI e della Microsoft Corporation, avente ad oggetto la domanda di accertamento della sottrazione indebita di dati per l’addestramento degli apparati di intelligenza artificiale da parte delle convenute. Questo ricorso d’urgenza è stato deciso, avuto riguardo alla richiesta di rigetto del ricorso (c.d. “Motion to Dismiss”), il giorno 23 (dep. 24) maggio 2024 dal giudice Vince Chhabria del Northern District of California, il quale ha ritenuto che il ricorso – articolato in circa 200 pagine – fosse eccessivamente articolato e incentrato su numerose affermazioni che risulterebbero non necessarie, ridondanti e distraenti rispetto al thema decidendum. Pur dando atto che la tecnologia dell’intelligenza artificiale determina il sorgere di seri problemi per la società, il giudice ha indicato agli attori che l’azione legale debba essere ricondotta a questioni strettamente giuridiche, avulse da affermazioni generiche o di principio, le quali devono essere rivolte al mondo politico, non alla magistratura giudicante. Nel decidere sulla domanda di rigetto del ricorso il giudice ha assegnato 21 giorni agli attori per il deposito di un atto emendato dal quale siano stati rimosse le allegazioni inutili.

[2] Per un esame cursorio di quanto si dibatte nelle cause in materia di intelligenza artificiale si può leggere quanto pubblicato qui: https://www.agendadigitale.eu/mercati-digitali/ai-overviews-di-google-minaccia-leditoria-ecco-i-problemi-e-una-possibile-soluzione/ e qui https://www.agendadigitale.eu/mercati-digitali/ia-e-diritto-dautore-regole-e-accordi-per-il-futuro-dei-media-le-tendenze-in-atto/

[3] In questo articolo vi sono alcuni spunti per la riflessione sul tema: https://www.agendadigitale.eu/mercati-digitali/scarlett-johansson-contro-openai-ecco-i-diritti-in-gioco/

[4] Anche questo argomento trova approfondimento nel seguente documento: https://www.agendadigitale.eu/documenti/giustizia-digitale/ai-e-avvocati-alla-ricerca-di-regole-per-le-piattaforme-digitali-il-caso-usa/

[5] Il modello di business utilizzato da Google per il web scraping sarebbe quello noto con il nome di “Clearview”

[6] Si vedano sul punto i seguenti contributi:

Si ricorda, in proposito di “Web scraping e intelligenza artuficiale generativa,” il provvedimento del 20 maggio 2024 che il Garante per la Tutela dei Dati Personali ha pubblicato qui: https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10020316

In detto provvedimento, il Garante, osservata la presenza di servizi che effettuano la raccolta massiva di di grandi quantità di dati per il tramite dello “scraping” finalizzati all’addestramento delle piattaforme di intelligenza artificiale ha evidenziato, fra l’altro, che compete ai gestori pubblici e privati di rispettare i principi fondamentali del GDPR in Italia e nell’Unione Europea e ha deliberato di adottare una “Nota Informativa in materia di web scraping per finalità di addestramento di intelligenza artificiale generativa e di possibili azioni di contrasto a tutela dei dati personali”.

[7] Il 6 giugno 2024 è stata pubblicata la notizia che il Garante austriaco della privacy NOYB, similmente a quanto aveva fatto il Garante Privacy norvegese nell’anno 2023, ha presentato ricorso in undici paesi dell’Unione Europea europei sostenendo che Meta sta cercando di utilizzare i dati personali degli utenti della sua piattaforma per addestrare i propri modelli di intelligenza artificiale.

Secondo NOYB, agli utenti non viene fornita da Meta alcuna informazione sugli scopi della sua “tecnologia AI”, la quale sarebbe contraria alle prescrizioni del Regolamento GDPR dell’Unione Europea, normativa che include il consenso dei trattamenti on-line tramite una specifica procedura di “Opt-in”. Sulla notizia riguardante l’azione svolta dal Garante dei Dati Personali in Norvegia si può leggere questo articolo in lingua inglese: https://www.agendadigitale.eu/sicurezza/privacy/norway-ban-for-facebook-and-instagram-of-processing-personal-data-for-behavioral-marketing/

[8] Il nostro legislatore ha presentato un DDL che approfondisce, oltre a quello della tutela della privacy, fra i molti trattati, anche il tema dei deepfake: https://www.agendadigitale.eu/mercati-digitali/ia-e-diritto-dautore-i-punti-chiave-del-ddl-butti/

[9] Gli esempi in questione sono riportati alle pagine da 38 a 40 del ricorso.

[10] Si è osservato che le preoccupazioni di un uso incontrollato dei modelli di artificial intelligence sono stati da tempo evidenziati dalle istituzioni statunitensi in diverse sedi, fra cui la Casa Bianca e i magistrati della NTIA: https://www.hbritalia.it/homepage/2023/06/26/news/intelligenza-artificiale-le-regole-limitano-lo-sviluppo-tecnologico-15591/

[11] Su questo argomento si suggerisce la lettura del seguente pezzo: https://www.agendadigitale.eu/mercati-digitali/ai-act-e-copyright-il-compromesso-della-presidenza-spagnola-le-regole/

[12] Qui la pagina web sull’argomento del Rappresentante della House of Deputies, Adam Schiff: schiff.house.gov/news/press-releases/rep-schiff-introduces-groundbreaking-bill-to-create-ai-transparency-between-creators-and-companies

[13] Sull’argomento abbiamo fornito ragguagli nel brano di seguito riportato: https://www.agendadigitale.eu/mercati-digitali/ai-overviews-di-google-minaccia-leditoria-ecco-i-problemi-e-una-possibile-soluzione/

[14] Qui le norme regolamentari cui facciamo riferimento: chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.agcom.it/documents/10179/29302270/Allegato+25-1-2023/58525b07-198f-46de-93c8-bd7e3a7a162e?version=1.0

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati