PRIVACY

Intelligenza artificiale, ecco come GDPR e AI Act regolano la tecnologia di frontiera



Indirizzo copiato

La normativa europea lancia un ponte verso il futuro disciplinando la tutela dei dati personali nell’interazione uomo-macchina. Una panoramica degli ambiti di azione e l’impatto che avranno le regole sulla “commodity del XXI secolo”

Aggiornato il 30 apr 2025

Renato Goretta

Consulente GDPR – DPO



transumano

L’inevitabile diffusione dei sistemi di Intelligenza artificiale e l’impatto sulle nostre vite stanno ponendo significativi interrogativi sotto diversi profili: etici, di diritto, sociali e, certamente, di protezione dei dati personali. Da qui l’esigenza di gestire, normalizzare e regolarizzare il flusso di dati personali necessari ad alimentare l’IA. A questa esigenza il legislatore europeo ha dato risposta con il Regolamento 2016/679 UE (GDPR)  e più recentemente con l’AI Act, il primo quadro normativo completo al mondo specificamente dedicato all’intelligenza artificiale. Vediamo come la normativa affronta una tecnologia in accelerazione come l’Intelligenza artificiale.

Prima di entrare nel merito dell’argomento di questo articolo – l’Intelligenza Artificiale e la protezione dei dati personali – vediamo alcune definizioni di IA:

  1. scienza che si propone di sviluppare macchine intelligenti
  2. disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di Sistemi hardware e Sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana
  3. ramo dell’informatica che permette la programmazione e progettazione di sistemi che dotano le macchine di caratteristiche considerate tipicamente umane quali percezioni sensoriali e capacità decisionali
  4. disciplina che vuole risolvere specifici problemi, o effettuare (simulare) ragionamenti che non possono essere compresi pienamente dalle capacità cognitive umane.

Dal 2019 al 2025, l’intelligenza artificiale ha subito una trasformazione radicale, soprattutto negli ultimi due anni, passando da sistemi principalmente basati su regole a sistemi generativi capaci di creare contenuti originali come testo, immagini, audio e video con un realismo senza precedenti. I Large Language Models o LLM e i modelli multimodali hanno rivoluzionato il panorama, rendendo l’IA accessibile attraverso interfacce conversazionali intuitive e portando a una democratizzazione delle tecnologie di frontiera.

Ma cosa vuol dire intelligenza: imparare dall’esperienza? Scherzare? Mentire? Dipingere? Nel caso dell’Intelligenza Artificiale vuol dire avere un numero di dati input (dati regole, dati esempio, dati personali) sufficienti a trarre delle conclusioni adeguatamente precise per definire, per esempio, un percorso, una traduzione, giocare a scacchi oppure a Go, un suggerimento per gli acquisti, una diagnosi medica, una prenotazione, per chiamare Uber, ecc.

Intelligenza artificiale, i dati come “carburante”

I dispositivi di IA sono interattivi, autonomi e adattabili. Infatti, possono migliorare le loro funzionalità con l’aumentare del numero e/o della qualità dei dati input o tramite l’autoapprendimento (machine learning). Quest’ultimo, evoluto nei sistemi di deep learning e reinforcement learning rende i sistemi di intelligenza artificiali imprevedibili, in quanto gli algoritmi ex ante vengono modificati ex post dal machine learning aprendo la questione delle responsabilità penali e civili.

Ma l’Intelligenza Artificiale per essere abbastanza intelligente ha bisogno dei nostri dati personali ovvero delle informazioni che identificano o rendono identificabile, direttamente o indirettamente, una persona fisica e che possono fornire informazioni sulle sue caratteristiche anche particolari, le sue abitudini, il suo stile di vita, le sue relazioni personali, il suo stato di salute, la sua situazione economica, le sue preferenze, la sua localizzazione, ecc..

Particolarmente importanti per l’Intelligenza Artificiale sono proprio i dati che:

  1. permettono l’identificazione diretta – come i dati anagrafici (es.: nome e cognome), le immagini, ecc.
  2. permettono l’identificazione indiretta, come un numero di identificazione (es.: il codice fiscale, l’indirizzo IP, il numero di targa, l’IBAN, ecc.)
  3. rientrano in particolari categorie: cioè quelli che rivelano l’origine razziale od etnica, le convinzioni religiose, filosofiche, le opinioni politiche, l’appartenenza sindacale, relativi alla salute o alla vita sessuale, i dati genetici, i dati biometrici e quelli relativi all’orientamento sessuale
  4. dati relativi a condanne penali e reati o a connesse misure di sicurezza: si tratta dei dati c.d. “giudiziari”, cioè quelli che possono rivelare l’esistenza di determinati provvedimenti giudiziari soggetti ad iscrizione nel casellario giudiziale (es.: i provvedimenti penali di condanna definitivi, la liberazione condizionale, il divieto od obbligo di soggiorno, le misure alternative alla detenzione, ecc.) o la qualità di imputato o di indagato.

Inoltre, con l’evoluzione dell’IA generativa, sono diventati cruciali anche i dati utilizzati per l’addestramento dei modelli, compresi contenuti protetti da copyright, informazioni pubblicate online e dati raccolti da fonti diversificate che possono includere informazioni sensibili o identificative.

La questione dello scambio dei dati personali per l’accesso a servizi digitali si è ulteriormente complicata con la diffusione dei sistemi di IA consumer.

Gli utenti cedono quantità ancora maggiori di dati personali in cambio dell’accesso, magari gratuito, a strumenti di IA sempre più potenti, spesso senza una piena consapevolezza dell’impatto che questo può avere sulle loro vite. La definizione di AI come della “commodity del XXI secolo” risulta quindi ancora più appropriata oggi rispetto al 2019.

Peccato che questo “scambio commerciale” avvenga, spesso, senza una corretta valutazione dell’impatto sulle nostre vite, senza considerare i bias annidati nelle risposte della AI condizionata, ovviamente, dal passato e trascurando il fatto che l’AI può, dovrebbe, essere utilizzata solo da persone competenti e non per supplire all’ignoranza.

Il GDPR e l’AI Act: un quadro normativo in evoluzione fra classificazioni e divieti

Il legislatore europeo ha compiuto passi significativi per tenere il passo dell’evoluzione tecnologica e scientifica. Al GDPR del 2016 si è aggiunto nel 2024 l’AI Act, il primo framework regolatorio al mondo specificamente dedicato all’intelligenza artificiale, che introduce un approccio basato sul rischio per classificare e regolamentare i sistemi di IA in base al loro potenziale impatto sulla società.

L’AI Act classifica i sistemi di IA in quattro categorie principali:

  1. Rischio inaccettabile: sistemi di IA vietati, come quelli di scoring sociale o manipolazione subliminale
  2. Alto rischio: sistemi soggetti a requisiti rigorosi prima dell’immissione sul mercato, come quelli utilizzati in infrastrutture critiche, istruzione, occupazione, servizi pubblici essenziali
  3. Rischio limitato: sistemi soggetti a obblighi di trasparenza, come le chatbot o i sistemi di riconoscimento delle emozioni
  4. Rischio minimo: tutti gli altri sistemi, soggetti a requisiti minimi o volontari

Questa classificazione si aggiunge e integra le disposizioni del GDPR, creando un ecosistema normativo più completo per la gestione dei sistemi di IA e dei dati personali che utilizzano.

Inoltre, l’AI Act europeo, vieta espressamente alcune pratiche considerate inaccettabili per i rischi che comportano per i diritti fondamentali e la sicurezza.

Ecco le principali pratiche vietate:

  1. Pratiche di manipolazione e sfruttamento delle vulnerabilità che utilizzano tecniche subliminali per manipolare il comportamento di una persona in modo da causare danni fisici o psicologici o sistemi che sfruttano le vulnerabilità di gruppi specifici (come minori o persone con disabilità) per influenzarne materialmente il comportamento
  2. Sistemi di punteggio sociale gestiti da autorità pubbliche che valutano o classificano le persone basandosi sul loro comportamento sociale in diversi contesti e applicazioni che portano a trattamenti pregiudizievoli o discriminatori verso determinate persone o gruppi
  3. Sistemi di identificazione biometrica remota per l’identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di contrasto, salvo specifiche eccezioni strettamente regolamentate o l’utilizzo di sistemi di categorizzazione biometrica basati su caratteristiche sensibili (come convinzioni politiche, orientamento sessuale, etnia, religione)
  4. Sistemi di riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, eccetto per specifiche finalità mediche o di ricerca
  5. Sistemi predittivi di polizia basati sulla profilazione di persone o sulla valutazione della probabilità che commettano reati basandosi su caratteristiche personali
  6. Creazione di database di riconoscimento facciale attraverso la raccolta indiscriminata di immagini da internet o da sistemi di videosorveglianza

Infine, l’AI Act prevede controlli e requisiti più stringenti per i sistemi ad alto rischio, anche se non completamente vietati, come quelli utilizzati in settori critici quali sanità, trasporti, energia e sicurezza ma per avere un quadro definitivo di questa architettura normativa complessa, bisognerà attendere gli atti secondari – atti di implementazione –, linee guida, standard armonizzati e codici di condotta in fase di elaborazione e introduzione rendendo, di fatto, la lentezza legislativa incompatibile con la velocità della tecnologia oltre a necessitare di adattamenti a livello nazionale. Infatti, gli Stati membri devono integrare l’AI Act nei rispettivi ordinamenti giuridici nazionali, definire sistemi sanzionatori specifici (il Regolamento stabilisce solo i principi generali e i massimali delle sanzioni) e  istituire meccanismi di coordinamento tra le autorità nazionali e quelle europee

Fino al completamento di questi passaggi, l’applicazione del regolamento rimarrà parziale e potenzialmente disomogenea tra i diversi Stati membri dell’Unione Europea.

AI e dati personali, il trattamento automatizzato: articolo 22 del GDPR alla luce dei nuovi sviluppi

Il GDPR pone particolare attenzione sul trattamento automatizzato dei dati personali. L’Art. 22 del GDPR (Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione) ribadisce, come principio generale, che l’Interessato ha il diritto di non essere sottoposto a una decisione basata esclusivamente sul trattamento automatizzato dei propri dati, a cominciare dalla profilazione, definita nell’Art. 4 del GDPR (Definizioni), che produca effetti giuridici che lo riguardano o che incida allo stesso modo sulla sua persona in modo significativo.

A proposito del primo paragrafo dell’Art. 22, sembra chiaro che nessuna tecnologia di Intelligenza Artificiale sia conforme al GDPR senza l’intervento umano. Ciò che viene infatti richiesto a chi utilizza Sistemi di IA per acquisire ed elaborare dati personali da individui (interessati) è:

  1. definire le finalità del trattamento
  2. informare sull’utilizzo che si fa della tecnologia IA
  3. raccogliere il consenso al trattamento automatizzato e alla profilazione
  4. determinare la base giuridica
  5. valutare l’impatto che l’uso dell’IA esercita sugli individui (DPIA)
  6. dare prospetto compiuto e completo del funzionamento della tecnologia, per individuarne i criteri di ragionamento (ed eventualmente anche alcuni bias di partenza)
  7. intervenire nel caso in cui si presentino possibili occasioni di violazione dei diritti degli interessati
  8. comunicare e informare in caso di data breach
  9. implementare sistemi di logging e tracciabilità per i sistemi di IA ad alto rischio
  10. adottare misure di sicurezza rafforzate contro attacchi adversarial e tentativi di manipolazione

La questione dei sistemi basati su machine learning che potrebbero iniziare a trattare dati per finalità diverse da quelle inizialmente comunicate è diventata ancora più rilevante con l’avvento di sistemi sempre più autonomi e capaci di apprendimento continuo. L’AI Act impone requisiti di trasparenza e documentazione più stringenti per prevenire questo tipo di “function creep” e garantire che le finalità del trattamento rimangano sotto controllo umano.

GDPR, quando il trattamento è “illecito”

Infatti, ai sensi dell’Art. 6 del GDPR (Liceità del trattamento) il trattamento dei dati personali può avvenire, oltre che per finalità predeterminate, solo in presenza di idonee “basi giuridiche” cioè in condizioni di trattamento lecito; pertanto, un cambiamento, in autonomia (autoapprendimento del sistema di IA), delle finalità del trattamento si configurerebbe non supportato dalla base contrattuale, non preventivamente predeterminato e quindi illecito.

È da rilevare che le ultime tendenze in merito all’utilizzo dei Sistemi di IA vanno nella direzione di una interazione costante fra IA e intervento umano, anche perché gli studi più recenti dimostrano che le macchine non sono (per ora) così “intelligenti” (sbagliano con una certa frequenza) e la persona, per sua natura, è fallibile mentre l’interazione Sistema/persona migliora significativamente le performance, rendendo, nel contempo, gestibile l’attività di trattamento dei dati personali in conformità a quanto disposto dal GDPR.

Articolo 22

Oltre all’Art. 22 del GDPR, l’Art. 24 (Responsabilità del titolare del trattamento), prevede che, tenuto conto della natura, del campo applicativo, del contesto e delle finalità di trattamento, nonché dei rischi di varia probabilità e gravità dei diritti e le libertà delle persone fisiche, il Titolare del trattamento mette in atto “misure tecniche e organizzative adeguate” per garantire, ed essere in grado di dimostrare, che il trattamento dei dati personali è effettuato conformemente al GDPR.

L’Art. 24 introduce infatti il c.d. principio cardine di accountability che si connota per due accezioni fondamentali: in primo luogo, la responsabilità verso gli stakeholder in merito al non corretto utilizzo dei dati personali e della produzione di risultati in linea con le finalità dichiarate con l’informativa; in secondo luogo, l’esigenza di introdurre logiche e meccanismi di maggiore responsabilizzazione in merito al data crossing relativamente all’impiego dei dati personali e alla produzione di risultati. Tale principio investe tutte le operazioni concernenti dati personali ed è connotata da un profilo di applicabilità oggettiva, applicandosi in ogni situazione che veda uno scorretto utilizzo di informazioni rilevanti.

Privacy by design: da principio a necessità operativa

Il principio di privacy by design, introdotto dall’Art. 25 del GDPR, si è evoluto da concetto innovativo a necessità operativa fondamentale. L’AI Act rafforza questo approccio richiedendo che i sistemi di IA ad alto rischio siano progettati con caratteristiche di trasparenza, robustezza e accuratezza fin dall’inizio.

La privacy by design per i sistemi di IA oggi implica:

  1. la minimizzazione dei dati di addestramento utilizzando solo i dati strettamente necessari per addestrare i modelli di IA
  2. l’anonimizzazione e pseudonimizzazione avanzate implementando tecniche come la differential privacy per proteggere i dati utilizzati nell’addestramento
  3. L’adozione di tecniche di federated learning permettendo l’addestramento dei modelli senza centralizzare i dati personali
  4. la spiegabilità by design progettando sistemi che possano fornire spiegazioni comprensibili delle loro decisioni
  5. la resistenza contro attacchi di privacy proteggendo contro i tentativi di estrazione di dati di addestramento attraverso attacchi di membership inference o model inversion
  6. i controlli di debiasing identificando e mitigando i bias nei dati di addestramento e nei risultati dei modelli

Il Considerando 78 del GDPR, che evidenzia l’importanza di misure tecniche e organizzative adeguate, trova oggi un’applicazione pratica nei requisiti dell’AI Act per i sistemi ad alto rischio, che includono valutazione del rischio, documentazione tecnica dettagliata, registrazione automatica degli eventi e supervisione umana.

La catena di responsabilità nell’era dell’IA generativa

L’ecosistema degli attori coinvolti nel trattamento dei dati attraverso sistemi di IA si è notevolmente ampliato. Oltre all’interessato e al titolare del trattamento, oggi abbiamo:

  1. Provider di sistemi di IA (sviluppatori dei modelli foundation e dei sistemi di IA generativa)
  2. Deployer di sistemi di IA (organizzazioni che implementano e utilizzano questi sistemi)
  3. User di sistemi di IA (utenti finali che interagiscono con i sistemi)
  4. Data broker e fornitori di dataset di addestramento (entità che raccolgono e forniscono dati per l’addestramento dei modelli)

L’AI Act introduce obblighi specifici per ciascuno di questi attori, con particolare attenzione ai provider di sistemi ad alto rischio, che devono implementare sistemi di gestione del rischio, preparare documentazione tecnica dettagliata e assicurare la conformità prima dell’immissione sul mercato.

Il regime sanzionatorio è stato significativamente rafforzato rispetto al 2019. L’AI Act prevede sanzioni che possono arrivare fino al 7% del fatturato globale annuo per le violazioni più gravi, come l’uso di sistemi di IA vietati, superando anche il regime sanzionatorio del GDPR (4%).

Le sfide emergenti e il futuro della regolamentazione

Nuove sfide sono emerse dal 2019 ad oggi, tra cui:

  1. la capacità dei sistemi di IA di generare contenuti falsi – deepfake – ma estremamente realistici pone sfide significative per la privacy e la reputazione
  2. i sistemi di IA possono perpetuare o amplificare pregiudizi esistenti – bias e discriminazione algoritmica – nei dati di addestramento
  3. i grandi modelli linguistici e multimodali presentano sfide uniche – trasparenza dei modelli di fondazione – in termini di interpretabilità e trasparenza
  4. questioni relative all’uso di contenuti protetti da copyrightproprietà intellettuale e dati di addestramento – per l’addestramento dei modelli
  5. la concentrazione delle capacità di sviluppo dell’IA in poche grandi aziende – sovranità digitale e AI – solleva questioni di sovranità tecnologica e oligopoli.

L’AI Act cerca di affrontare queste sfide attraverso un approccio basato sul rischio e requisiti di governance più stringenti, ma il panorama tecnologico continua a evolversi rapidamente, richiedendo un adattamento continuo del quadro normativo.

Conclusioni: verso una governance responsabile dell’IA

Il settore dell’Intelligenza Artificiale è oggi più che mai cruciale per lo sviluppo della società digitale globalizzata rispetto al 2019. I progressi nella capacità di elaborazione dei dati e nelle tecniche di apprendimento hanno portato a sistemi di IA generativa che possono creare contenuti, prendere decisioni e interagire con gli esseri umani in modi prima impensabili. Domani, con i computer quantistici, la sfida sarà ancora più grande e non possiamo che incominciare ad affrontarla oggi.

La combinazione del GDPR e dell’AI Act rappresenta il tentativo più avanzato a livello globale di bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali delle persone. Questo approccio “europeo” all’IA, centrato sula centralità dell’essere umano e basato sui valori, sta influenzando la regolamentazione in altre giurisdizioni, posizionando l’UE come leader nella governance dell’IA.

Tuttavia, restano sfide significative. La rapidità dell’evoluzione tecnologica continua a mettere alla prova la capacità del legislatore di stare al passo. L’implementazione pratica dei principi del GDPR e dell’AI Act richiederebbe un dialogo continuo tra legislatori, sviluppatori, deployer, autorità di regolamentazione e società civile.

Nel futuro prossimo, sarà fondamentale sviluppare standard tecnici condivisi, strumenti di conformità accessibili e best practice che possano aiutare le organizzazioni di tutte le dimensioni a navigare questo complesso panorama normativo. Solo attraverso un approccio collaborativo e multidisciplinare sarà possibile realizzare il potenziale dell’IA minimizzando i rischi per i diritti e le libertà fondamentali.

La sfida più grande rimane quella di trasformare i principi astratti in pratiche concrete e verificabili, garantendo che l’innovazione tecnologica proceda, ed evolva, di pari passo con la protezione dei diritti fondamentali in un ecosistema digitale sempre più complesso e interconnesso.

EU Stories - La coesione innova l'Italia

Tutti
L'ANALISI
INIZIATIVE
PODCAST
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4