privacy

IA Generativa e data protection: strategie di conformità e best practice per le aziende



Indirizzo copiato

L’IA generativa, con la sua capacità di creare testi, immagini e audio, solleva importanti questioni di data protection. Con l’imminente regolamentazione dell’A.I. Act e il GDPR, le aziende devono affrontare sfide di compliance e bilanciamento tra protezione dei dati e innovazione tecnologica. Ecco i principali obblighi e riflessioni per una corretta governance

Pubblicato il 1 ago 2024

Chiara Benvenuto

Associate Dipartimento Data Protection Rödl & Partner

Tommaso Mauri

Dipartimento Data Protection Rödl & Partner



intelligenza artificiale

Il progresso tecnologico raggiunto nel corso degli ultimi anni ha rinforzato la curiosità sull’utilizzo di strumenti di intelligenza artificiale, sia a livello professionale che a livello personale.

È indubbio infatti che, ad oggi, i sistemi di intelligenza artificiale abbiano permeato la vita di ogni individuo e posto le aziende davanti ad una serie di riflessioni derivanti dal loro utilizzo, specie con riferimento alle tematiche data protection, considerato l’uso massivo di dati personali da parte di queste tecnologie.

Ancor più se si prendono in esame le soluzioni di IA generativa, da intendersi come quei tool intelligenti dotati di modelli di apprendimento automatico e progettati per produrre un’ampia e generica varietà di output, in grado di svolgere una serie di compiti e applicazioni, anche di natura “creativa”, come la generazione di testo, immagini o audio.

E allora, nelle more dell’entrata in vigore della prima regolamentazione (AI Act) e considerato l’avviato impiego di tali soluzioni nei contesti aziendali, occorre indubbiamente provare e riflettere sulle implicazioni derivanti dalla messa a terra dei principali obblighi di cui al Regolamento (UE) 679/2026 (“GDPR”), che rappresenta oggigiorno la fonte normativa applicabile quando si parla di raccolta e trattamento di dati personali.

Nelle righe che seguono, cercheremo di fornire qualche spunto sui principi maggiormente rilevanti in tale ambito al fine di condividere alcune riflessioni a beneficio di quelle aziende che, volenti o nolenti, dovranno ben presto fare i conti con il mercato dei sistemi di intelligenza artificiale.

Il concetto di IA generativa

    Per definire correttamente cosa sia un sistema di Intelligenza Artificiale generativa (“IA generativa”) occorre fare un passo indietro e focalizzarsi sul concetto di Intelligenza Artificiale (IA).

    Il termine “Intelligenza Artificiale” è ad oggi utilizzato per descrivere ogni tipologia di tecnologia e di sistema che, a fronte di una determinata informazione di input, produce uno specifico risultato di output. La definizione è fornita dal legislatore europeo che, nel complesso iter normativo che ha portato all’approvazione dell’ormai noto AI Act (e la cui pubblicazione in Gazzetta Ufficiale europea è attesa per la metà del mese di luglio), ha definito un sistema di IA come un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare determinati output, quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

    La scelta legislativa dell’Europa di adottare una definizione quanto più tecnologicamente neutra dell’IA si sposa perfettamente con la logica delle tecnologie di questo tipo, naturalmente portate ad evolversi nel corso del tempo.

    Ed è proprio sulla scorta di questo processo evolutivo che oggi sentiamo parlare, oltre che di sistemi e tecnologie di IA, anche di IA generativa. Quest’ultima rappresenta un sottoinsieme dell’IA che utilizza modelli di apprendimento automatico progettati per produrre un’ampia e generica varietà di output, in grado di svolgere una serie di compiti e applicazioni, come la generazione di testo, immagini o audio. Concretamente, si basa sull’uso dei cosiddetti “modelli di base”, ossia modelli di apprendimento che contengono un vasto ed elevato numero di informazioni, fondamentali per consentire l’addestramento e il buon funzionamento delle tecnologie di IA generativa. In questa prospettiva, essi servono peraltro come modelli di riferimento per altri sistemi di IA generativa che verranno “perfezionati” e sviluppati a partire da essi.

    Che si parli di sistemi di IA “pura” o sistemi di IA generativa, una cosa è certa: entrambi prevedono – certamente non in valore assoluto ma verosimilmente nella maggioranza dei casi – una raccolta e un trattamento di dati personali. Ed è proprio l’interazione tra IA e la disciplina della data protection che pone di fronte alle aziende interessate all’utilizzo di tali tecnologie un importante tema di compliance e di bilanciamento tra quelli che sono i diritti e le libertà dei soggetti interessati, ovvero quegli individui i cui dati personali sono oggetto di trattamento da parte della soluzione di IA e al tempo stesso destinatari dei suoi effetti, ed esigenze di produzione e posizionamento sul mercato.

    I principi di data protection applicati all’IA generativa

    Quando parliamo di sistemi e tecnologie di IA, il tema relativo alla protezione dei dati personali non può essere messo in secondo piano, e ciò dal momento che il dato costituisce esso stesso “risorsa” per lo sviluppo di tali sistemi. È il dato a fare da “nutrimento” per la macchina, non a caso si usa in gergo impiegare l’espressione “dare i dati in pasto alla macchina”. Ebbene, oggetto delle informazioni di input possono ben essere dati di natura personale, in particolare se si considera che il dato personale, in quanto completo e direttamente riferibile ad una persona fisica, presenta maggiore completezza a livello strutturale rispetto ad un dato di tipo anonimo o pseudonimo, e ciò produce importanti risvolti in termini informativi durante l’apprendimento della macchina.

    È infatti in tal frangente che l’utilizzo dell’IA determina necessariamente l’esigenza di capire se i principi e le salvaguardie in materia di data protection possono essere parte del rapporto dialettico.

    Gli adempimenti in capo alle aziende

    Proviamo a riflettere insieme su qualche applicazione.

    Anzitutto, prendendo a riferimento per praticità il GDPR, possiamo fornire una prima panoramica dei principi maggiormente impattati e dei conseguenti maggior adempimenti in capo alle aziende:

    • l’obbligo di garantire che il trattamento dei dati personali sotteso all’utilizzo di tecnologie di IA sia legittimo, ossia che sia sorretto da un’adeguata base giuridica tra quelle proposte dall’art. 6 GDPR;
    • l’applicazione del principio di minimizzazione dei dati, rispetto a cui minore è il numero di dati personali oggetto di trattamento da parte dell’IA e maggiori sono i benefici in termini di abbattimento del rischio per i soggetti interessati;
    • l’applicazione del principio di limitazione della conservazione, in base al quale al termine del loro utilizzo, ossia al perseguimento degli scopi dichiarati, i dati personali devono essere immediatamente cancellati;
    • il rispetto del principio di trasparenza e di informazione sul trattamento dei dati personali svolto, che equivale all’obbligo di adottare un’adeguata informativa a beneficio dei soggetti interessati.
    • la necessità di svolgere la valutazione d’impatto sulla protezione dei dati (altresì nota come Data Protection Impact Assessment, “DPIA”), tenuto conto che la natura del trattamento dati derivante dall’utilizzo dell’IA comporta la sussistenza di un rischio elevato per la tutela dei diritti e delle libertà fondamentali degli individui;
    • la valutazione sulla garanzia che i dati personali oggetto di trattamento da parte dell’IA siano il più accurati possibile, nel rispetto del principio di esattezza di cui all’art. 5, comma 1, lettera d) GDPR;
    • la valutazione, in termini di risk assessment, del contesto del trattamento per l’individuazione delle misure tecniche ed organizzative più idonee per garantire la sicurezza dei dati stessi.

    Le sfide della raccolta di dati per l’AI generativa

    In termini di liceità, è assolutamente dirimente che i titolari del trattamento utilizzino una delle basi giuridiche ex art. 6 GDPR, quali ad esempio il consenso degli interessati, il legittimo interesse o l’adempimento di un compito di interesse pubblico. A seconda del campo applicativo del trattamento e della tipologia di attività imprenditoriale condotta dal titolare, l’una piuttosto che l’altra base giuridica può essere più o meno applicabile. Negli scenari di richiesta del consenso degli interessati, ad esempio, occorrerà sincerarsi che la scelta dell’interessato sia libera, inequivocabile, informata e scevra da qualsivoglia meccanismo di pressione; d’altra parte, l’affidarsi al legittimo interesse quale base giuridica del trattamento comporterà l’obbligo di svolgere il balancing test, verificando che lo stesso interesse del titolare prevalga legittimamente sugli interessi, i diritti e le libertà fondamentali dei soggetti interessati, fermo restando il loro diritto di esercitare l’opt-out.

    E in questo contesto di verifica dei presidi data protection potrebbero sorgere alcuni interrogativi, quali ad esempio quelli che si propongono nel seguito:

    • in quale misura il soggetto interessato potrebbe ragionevolmente attendersi che i propri dati personali siano trattati dall’IA per il perseguimento della relativa finalità del trattamento, come ad esempio della finalità di addestramento della macchina, se non a fronte di adeguati e dettagliati obblighi informativi (anche con riferimento al processo di addestramento dell’IA generativa e delle modalità di raccolta dei dati oggetto dei modelli di apprendimento)?
    • Il principio di necessità del trattamento svolto mediante l’IA potrebbe essere rispettato tenuto conto del fatto che, alla luce della natura delle soluzioni di IA (che per logica hanno bisogno di raccogliere un grande volume di dati personali al fine di fornire output affidabili), potrebbero verosimilmente essere presenti soluzioni alternative, più proporzionate e allineate al rispetto dei diritti degli interessati, che consentano di raggiungere il medesimo risultato alla luce della finalità del trattamento perseguita, come ad esempio il ricorso ai c.d. dati sintetici?
    • In che modo garantire un termine di conservazione adeguato con riferimento ai dati personali utilizzati per l’addestramento dell’IA? Tale tecnologia potrebbe fornire le medesime prestazioni laddove fosse adottato un meccanismo di cancellazione dei dati oggetto di apprendimento al ricorrere di uno specifico termine di conservazione?

    Sul fronte della minimizzazione, invece, il tema potrebbe essere alquanto spinoso.

    Implicazioni del GDPR sull’uso dell’AI generativa

    Come sopra accennato, infatti, l’IA generativa per poter garantire e migliorare la propria performance necessita di “ingerire” un gran quantitativo di informazioni e, quindi, possibilmente un gran volume di dati personali. Tale circostanza si pone in stretta antitesi con il principio di minimizzazione di cui all’articolo 5, paragrafo 1, lettera C GDPR, che afferma infatti il principio contrario. A tal proposito, un’opzione interpretativa ci viene offerta dall’European Data Protection Supervisor (“EDPS”), ossia l’Autorità europea che si occupa di vigilare sul trattamento di dati personali condotto dagli organi e dalle istituzioni europee: secondo il recente parere di quest’ultima, l’utilizzo di una grande quantità di dati non comporta necessariamente il raggiungimento di risultati migliori, potendosi l’utilizzo massivo di dati tradurre in concreti rischi sia per gli sviluppatori che per i destinatari degli effetti di tali applicazioni. L’EDPS ricorda, invece, che sarebbe opportuno dare priorità al concetto di qualità dei dati e non di quantità, così da garantire parimenti il rispetto del principio di minimizzazione.

    A livello di accuracy, con riferimento all’utilizzo di tecnologie di IA generativa, si pone il problema di garantire che i dati personali processati siano esatti ed aggiornati. I sistemi di IA generativa devono quindi essere progettati mediante l’utilizzo di informazioni puntuali ed aggiornabili nel tempo, con un necessario onere, in capo agli sviluppatori ed agli utilizzatori, di verifica delle fonti di provenienza degli stessi e dei processi esistenti per garantirne l’attualità; di converso, i titolari del trattamento dovranno adottare misure efficienti per verificare regolarmente l’accuratezza dei dati e correggere eventuali inesattezze, onde evitare – per esempio – il proliferare di risultati non consoni e delle c.d. “allucinazioni” dell’IA generativa.

    Quanto appena indicato implica non solo la verifica dei dataset di addestramento, ma anche il monitoraggio continuo delle espressioni dell’IA per identificare e correggere eventuali errori. A tal proposito, un importante mezzo di mitigazione del rischio consiste nella supervisione umana nella catena del processo, al fine di contribuire a mantenere alti gli standard di accuratezza (che, a cascata, dovrebbero essere garantiti e rispettati anche dai fornitori stessi delle soluzioni di IA, a fronte di specifici vincoli contrattuali sulla qualità e l’esattezza dei dati forniti); supervisione peraltro prescritta dall’A.I. Act in relazione a determinate categorie di sistemi intelligenti che presentano rischi significativi.

    Dal punto di vista informativo, è indubbio che quanto più il titolare del trattamento sarà in grado di fornire informazioni circostanziate, di dettaglio e di facile comprensione per soggetti interessati, tanto più questi ultimi saranno in grado di avere piena coscienza e consapevolezza del perché e del come i propri dati personali sono raccolti e trattati dall’IA generativa. E tale circostanza vale in particolar modo per quanto riguarda la raccolta e il trattamento dei dati di training, fondamentali per il corretto funzionamento dell’IA generativa (e anche dell’IA in generale); quest’ultima, infatti, basando le proprie performances sui modelli di apprendimento, potrebbe incontrare imprevisti e ostacoli di funzionamento laddove i predetti modelli risultino viziati e/o inconsistenti. Ed in tal senso, appare quantomeno necessario che i produttori di tali tecnologie forniscano maggiori informazioni sulla loro creazione e sviluppo, al fine di permettere alle aziende che utilizzeranno le stesse di fornire quanti più dettagli possibili sul loro ciclo di vita e sulle loro modalità di raccolta dei dati personali in input. Il tutto dovrà essere svolto considerata la prevedibile accessibilità alle informazioni del target di riferimento, utilizzando un linguaggio quanto più semplice e trasparente, ricorrendo, se possibile, ad infografiche in legal design, fermo restando l’obbligo per sviluppatore, fornitore ed utilizzatore di predisporre dettagliata documentazione tecnica.

    Valutazione d’impatto sulla protezione dei dati (DPIA) e AI generativa

    Infine, parlando di sistema di IA generativa, non può non essere menzionato l’obbligo di svolgimento del DPIA, che nel panorama della data protection europea rappresenta uno dei maggior strumenti di accountability in mano ai titolari del trattamento per dimostrare il rispetto del GDPR e dei principi da esso discendenti.

    La valutazione di impatto del trattamento rispetto ai diritti dei singoli rappresenterà probabilmente uno degli oneri e degli adempimenti di maggior rilievo per le aziende che usufruiranno dei servizi forniti dall’IA generativa, specie considerando la complessità e il grado di dettaglio che richiede la compilazione di un documento come la DPIA.

    Rischi legali associati all’impiego dell’AI generativa

    La garanzia dei principi sopra accennati costituisce indubbiamente una grande sfida nel panorama odierno e, soprattutto, all’interno degli scenari futuri, ove le aziende ricorreranno sempre più all’utilizzo di tecnologie di IA generativa.

    Proprio il crescente ricorso a soluzioni di IA generativa determinerà inevitabilmente un ampliamento del rischio legato a possibili danni subiti dagli utilizzatori finali.

    Ad oggi, la disciplina sul risarcimento dei danni cagionati dalle tecnologie di IA, anche generativa, è alquanto carente. Non esiste ancora, infatti, una normativa dedicata, seppur sia in fase di approvazione da parte dell’Unione Europea l’Artificial Intelligence Liability Directive (“Direttiva”), una Proposta di Direttiva che mira a disciplinare in maniera armonizzata l’istituto della responsabilità civile extracontrattuale inerente i danni causati dall’IA, che è stata presentata il 28 settembre 2022.

    Nella medesima data, la Commissione Europea ha altresì presentato la proposta di una nuova direttiva sulla “Product Liability”, volta a rivedere il regime tradizionale di tutela dei consumatori che subiscono danni a causa di prodotti difettosi, di cui alla Direttiva 85/374/CEE, adattandolo alle sfide dell’era digitale e all’utilizzo sempre più diffuso dell’intelligenza artificiale.

    La responsabilità civile derivante dall’utilizzo di soluzioni di IA,

    In attesa che l’iter legislativo di approvazione delle sopra citate proposte di direttive giunga al termine, allo stato attuale la responsabilità civile derivante dall’utilizzo di soluzioni di IA, tenuto conto della disciplina offerta sul punto dall’ordinamento giuridico italiano, può essere ragionevolmente interpretata secondo le seguenti casistiche:

    • una responsabilità di tipo oggettivo, ove l’utilizzo di una soluzione di IA viene classificato come “attività pericolosa” ai sensi di quanto previsto dall’art. 2050 del Codice Civile italiano;
    • una responsabilità da cose in custodia, secondo quanto previsto dalla disciplina di cui all’art. 2051 del Codice Civile italiano, che tuttavia porta con sé in dote l’incognita della prova del caso fortuito (ad esempio, come definire il caso fortuito in rapporto ad un algoritmo di IA generativa che è in grado di assumere decisioni o esprimere opinioni in maniera del tutto indipendente dagli input associati?);
    • una responsabilità da fatto illecito (nota anche come responsabilità extra-contrattuale), nel rispetto della disciplina offerta dall’art. 2043 del Codice Civile italiano, che tuttavia porterebbe l’utilizzatore finale a dover sostenere un onere probatorio particolarmente gravoso, dal momento che sarebbe chiamato a provare la sussistenza: (i) del fatto doloso o colposo, ossia la circostanza originaria del danno lamentato (ii) del danno ingiusto (è ingiusto il danno che lede un interesse tutelato dall’ordinamento giuridico) e (iii) del nesso di causalità tra fatto e danno subito;
    • una responsabilità da prodotto difettoso, come disciplinata dalla Direttiva 85/374/CEE, che tuttavia – nonostante riconosca una sorte di regime di responsabilità oggettiva in capo al produttore della soluzione di IA, che viene in gioco a prescindere dalla sussistenza di profili di colpa o negligenza a carico di quest’ultimo – pone il danneggiato dinanzi all’onere di dimostrare la sussistenza del fatto dannoso, dell’ingiustizia del danno subito e del nesso di causalità tra fatto e danno subito.

    In prospettiva futura, va rilevato come i progetti di Direttiva ad oggi in cantiere mirino a rendere l’onere probatorio a carico del danneggiato significativamente più semplice – adottando, ad esempio, una “presunzione di causalità”, secondo cui laddove i danneggiati dimostrino che un produttore o un fornitore di soluzioni di IA ha agito con colpa non rispettando un determinato obbligo pertinente al danno, e che è ragionevolmente probabile un nesso di causalità con le prestazioni fornite dall’IA, il giudice potrà presumere che tale inosservanza abbia causato il danno.

    Ed ancora, nell’ambito della proposta della nuova Direttiva sulla responsabilità da prodotto difettoso, va registrato un ulteriore “alleggerimento” probatorio in favore del danneggiato, dal momento che la stessa Direttiva introduce la previsione di determinate circostanze in cui vi sarebbe una presunzione di difettosità del prodotto, idonea a superare eventuali carenze probatorie da parte del danneggiato.

    Inoltre, la già menzionata proposta introduce un obbligo di divulgazione in capo agli operatori economici chiamati in causa dal danneggiato, i quali saranno tenuti a fornire – su richiesta dell’organo giurisdizionale, e qualora la domanda proposta risulti quantomeno “plausibile” – gli elementi di prova nella loro disponibilità. Qualora l’operatore economico dovesse disattendere l’obbligo di divulgazione, la proposta prevede che si configuri una delle ipotesi di presunzione di difettosità del prodotto a vantaggio del danneggiato.

    Occorre pertanto tenere monitorati gli sviluppi che verranno apportati dalle proposte di Direttiva relative alla responsabilità – extracontrattuale e non – derivante dall’uso di sistemi di IA, tenendo bene a mente che, in fase di recepimento, ciascuno degli ordinamenti giuridici degli Stati Membri potrebbe definire profili di responsabilità tra loro molto diversi.

    Strategie per assicurare la compliance nell’uso dell’AI generativa

    Gli operatori economici, pertanto, al fine di mitigare i rischi legali, commerciali e reputazionali derivanti dai nuovi oneri posti in capo agli stessi, dovranno costruire un corretto sistema di compliance documentale, al fine di eliminare o quantomeno ridurre i profili di responsabilità connessi con l’impiego di sistemi di IA.

    Sia che si parli di adempimenti normativi, sia che si parli di responsabilità legate ai danni prodotti dai sistemi di IA, è comunque fondamentale che i titolari e i responsabili del trattamento si facciano trovare preparati. Il riferimento ai responsabili non è casuale poiché alcuni degli adempimenti sopra descritti dovranno avere luogo in sede di sviluppo ed implementazione della soluzione tecnologica e, dunque, troveranno come destinatari anche i fornitori che tratteranno i dati personali per conto delle aziende, titolari, che intenderanno procedere ad innovare i loro processi con l’IA.

    Come farlo? Nelle more dell’entrata in vigore dell’A.I. Act le aziende possono ricorrere anzitutto ad un self assessment per identificare quali processi aziendali abbiano già implementato sistemi dotati di IA e di che categoria (se ad alto rischio, se dal rischio sistemico, ecc.) e, in caso di esito positivo, per comprendere quale sia lo status di tali processi (documentazione redatta, presidi tecnici ed organizzativi, valutazioni di rischio ed impatto, ecc.).

    Successivamente l’assessment potrebbe procedere con un approfondimento in ambito data protection, proprio per verificare la corretta gestione degli adempimenti sopra descritti ed eventualmente pianificare, in sede di successiva remediation/implementation, le necessarie azioni a garanzia prima di tutto dei diritti e libertà degli interessati, oltre che della compliance aziendale.

    Nel solco di quanto sopra anticipato, il suggerimento concreto che è possibile fornire alle aziende rimane quello di imbastire un solido processo di governance che tenga conto, quanto meno, dei seguenti presidi:

    • svolgimento di un assessment per la mappatura dei processi, dei prodotti o dei servizi erogati che incorporano un sistema di IA generativa;
    • adozione di un processo di audit verso i fornitori di prodotti o di servizi contenenti soluzioni di IA generativa, anche e in particolare attraverso la verifica della licenza relativa al software commercializzato;
    • svolgimento di un assessment tecnico sulla soluzione di IA generativa in perimetro, per verificarne l’allineamento e il rapporto con i requisiti di disponibilità, integrità e confidenzialità dei dati personali che trattano;
    • svolgimento di un privacy assessment della soluzione di IA generativa in perimetro a partire dall’entry point – per verifica, in particolare, dell’accuratezza del set di dati utilizzato in input – e sino alla fase di produzione dell’output desiderato;
    • svolgimento delle attività di calcolo e gestione del rischio, con particolare riferimento a: (i) la valutazione del rischio privacy, (ii) la valutazione di impatto sul trattamento dei dati (presidi entrambi disciplinati dal GDPR) e (iii) la valutazione di impatto sui diritti fondamentali dell’individuo (quale misura introdotta dall’AI Act con riferimento a quei sistemi di IA ad alto rischio);
    • garanzia sulla presenza di un processo di privacy by design e by default della soluzione di IA generativa, che consenta una governance sulla protezione dei dati personali oggetto di trattamento per l’intero ciclo di vita del sistema interessato;
    • adozione di un processo di monitoraggio degli effetti e degli impatti della soluzione di IA generativa nel corso del tempo (occorrerebbe, in tal senso, individuare una tempistica idonea a garantire un controllo efficiente);
    • redazione ed eventuale aggiornamento delle informative esistenti per inclusione dei servizi o dei prodotti che supportano l’utilizzo di una tecnologia di IA generativa;
    • verifica sulla consistenza e efficienza delle misure di controllo del trattamento svolto dalla soluzione di IA generativa, con particolare riferimento alla gestione dell’intervento umano quale presidio di tutela per i diritti e le libertà fondamentali degli individui in riferimento alle decisioni prese nei loro riguardi dall’IA generativa;
    • redazione ed eventuale aggiornamento delle policies e delle procedure in essere all’interno dell’azienda per l’utilizzo delle soluzioni di IA generativa, al fine di creare un framework documentale di riferimento per le risorse incaricate di utilizzare tali sistemi.

    EU Stories - La coesione innova l'Italia

    Tutti
    Iniziative
    Video
    Analisi
    Iniziative
    Parte la campagna di comunicazione COINS
    Interviste
    Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
    Analisi
    La politica di coesione europea: motore della transizione digitale in Italia
    Politiche UE
    Il dibattito sul futuro della Politica di Coesione
    Mobilità Sostenibile
    L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
    Iniziative
    Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
    Politiche ue
    Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
    Finanziamenti
    Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
    Analisi
    Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
    Politiche UE
    Innovazione locale con i fondi di coesione: progetti di successo in Italia
    Iniziative
    Parte la campagna di comunicazione COINS
    Interviste
    Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
    Analisi
    La politica di coesione europea: motore della transizione digitale in Italia
    Politiche UE
    Il dibattito sul futuro della Politica di Coesione
    Mobilità Sostenibile
    L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
    Iniziative
    Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
    Politiche ue
    Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
    Finanziamenti
    Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
    Analisi
    Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
    Politiche UE
    Innovazione locale con i fondi di coesione: progetti di successo in Italia

    Articoli correlati

    Articolo 1 di 2