l'approfondimento

Un’AI etica è responsabilità di tutti: le basi per realizzarla

L’avventura scientifica dell’AI è nata più di 60 anni fa. Oggi, siamo a ChatGPT. Per minimizzare i rischi insiti nella tecnologia dobbiamo capire che ruolo questa ha nella nostra società. Serve uno sforzo di consapevolezza e collaborazione per identificare tutti insieme la visione del futuro che vogliamo

Pubblicato il 09 Mar 2023

Francesca Rossi

IBM AI Ethics Global Leader, IBM Research, T.J. Watson Research Center, New York, USA

artificial-intelligence-4736369_960_720

L’intelligenza artificiale (AI) offre moltissime opportunità per migliorare la nostra vita. Ormai tutte le aziende riconoscono la sua capacità di ottimizzare le loro operazioni e di creare nuovi servizi che prima non esistevano. L’AI è anche usata per accelerare le scoperte scientifiche e capire come combattere il cambiamento climatico. Supporta anche molte nostre attività, sia online che offline. Ad esempio, viene usata nel riconoscimento di email spam e di transazioni fraudolente delle carte di credito, nei sistemi di guida assistita, nei suggerimenti online di libri, film o contatti sui social e nella interpretazione dei comandi vocali.

La pandemia, e il conseguente lockdown, hanno dato una forte spinta alla digitalizzazione della società e l’AI ha supportato questo processo facilitando i servizi digitali personalizzati e flessibili.

Ma da dove siamo partiti? E come siamo arrivati a ChatGPT? Ma, soprattutto, quali sono i rischi e le implicazioni etiche dell’intelligenza artificiale?

The Biggest Ethical Challenges For Artificial intelligence

The Biggest Ethical Challenges For Artificial intelligence

Guarda questo video su YouTube

Breve storia dell’AI: ragionamento logico e apprendimento da dati

L’AI è una disciplina scientifica e tecnologica con lo scopo di costruire macchine in grado di risolvere problemi che richiedono intelligenza umana. L’avventura scientifica dell’AI è nata più di 60 anni fa e include due principali aree di ricerca, che identificano due modi complementari per insegnare ad una macchina a risolvere un problema.

Nella prima, spesso chiamata l’AI “simbolica” o “logica”, i ricercatori e gli sviluppatori capiscono come definire un problema (tramite simboli che descrivono le sue componenti principali) e come risolverlo, poi codificano questa soluzione in un algoritmo o delle regole, e trasformano questa soluzione in codice software per comunicarlo alla macchina, che da quel momento in poi saprà risolvere il problema seguendo le regole codificate. Questo modo di costruire macchine “intelligenti” è adatto quando il problema è ben definito. Un esempio tipico è trovare la strada migliore per andare da una città a un’altra, problema risolvibile da un classico algoritmo di AI che segue la logica per trovare la soluzione migliore in modo efficiente.

Un metodo diverso è invece basato sull’analisi di dati e l’apprendimento automatico (machine learning), in cui l’AI riesce a trovare correlazioni e pattern invisibili alle persone perché “nascosti” in grandi quantità di dati. Questo approccio, che spesso usa strutture chiamate “reti neurali”, perché traggono ispirazione dalla struttura del cervello umano, funziona molto meglio di quello basato su regole e logica quando il problema da risolvere è troppo vago o ha troppe possibili istanze per poter essere descritto precisamente. Un esempio è l’analisi di un’immagine per capire se contiene il volto di una persona, dal momento che possono apparire in un’immagine visti sotto diverse angolature. Questo rende praticamente impossibile definire un algoritmo che sicuramente (o con grande probabilità) riesca a dare la risposta corretta. Per ovviare a questo problema, si forniscono invece tantissimi esempi di soluzione del problema (cioè di immagini e corrispondenti risposte corrette) e si lascia che la macchina generalizzi da questi esempi per riuscire a dare la risposta corretta in una percentuale molto alta di casi anche su immagini mai viste prima. Oltre all’analisi di immagini, altri esempi in cui queste tecniche funzionano molto bene sono la traduzione automatica da una lingua ad un’altra, la comprensione di comandi vocali e i sistemi di conversazione, come ChatGPT (di cui parleremo più avanti).

Mentre le tecniche di AI basate su ragionamento logico hanno bisogno di un ambiente “controllato” in cui le macchine si trovano a funzionare, e sono state usate con successo in molti ambiti (quali la programmazione ottimale dei turni del personale e l’allocazione dei gate negli aeroporti), le tecniche di apprendimento automatico hanno dato alle macchine capacità “percettive”, quali la possibilità di interpretare correttamente un testo, un suono, un’immagine o un video e anche di generare questo tipo di contenuti. Questo ha permesso di ampliare enormemente il campo applicativo dell’AI negli ultimi anni.

Per un’AI etica occorre uno sforzo globale: cosa devono fare aziende e governi

Le innovazioni che hanno portato ai sistemi AI di conversazione

Molti lettori sicuramente avranno usato ChatGPT, facendo domande e ricevendo risposte spesso sorprendentemente eloquenti e corrette, e si staranno chiedendo se siamo davvero entrati nell’era di una forma di intelligenza artificiale simile a quella umana e se dobbiamo esserne felici o spaventati. Per rispondere a queste domande, dobbiamo prima capire come si è arrivati a questi sistemi conversazionali.

ChatGPT (e altri sistemi AI conversazionali) è costruito usando le tecniche più avanzate di machine learning. Queste tecniche, che abbiamo gia’ descritto prima, hanno iniziato ad avere una vasta applicazione solo negli anni 2000, quando dati e potenza computazionale hanno cominciato a essere disponibili in grandi quantità.

Dopo alcuni anni, il “deep learning” (DL) ha migliorato la loro applicabilità introducendo reti neurali a più livelli (da qui il termine “deep”) e mostrando che computer creati per applicazioni grafiche (le GPU) potevano anche essere utili per altri problemi, come quelli legati all’interpretazione di immagini e testo. Nel 2017 è stato poi introdotto il concetto di ”transformer”, che ha permesso alle reti neurali di gestire più velocemente e con maggiore correttezza grandi quantità di dati. Questo ha migliorato significativamente le applicazioni relative al testo, ad esempio nelle traduzioni o nella generazione di riassunti.

Questa tecnica è alla base di sistemi come GPT (Generative Pre-trained Transformer) che possono essere allenati su grandi quantità di dati, prendono come input un pezzo di testo e generano ulteriore testo in linea con l’input. ChatGPT usa GPT e altre tecniche per creare internamente un modello del linguaggio umano e poter quindi avere un dialogo dove riesce a rispondere, in modo praticamente perfetto dal punto di vista grammaticale, alle domande di una persona in dialogo su qualunque argomento. Ha però ancora importanti limitazioni e rischi, come la generazione di risposte non corrette o pericolose (ad esempio contenenti un linguaggio aggressivo, razzista o comunque non appropriato), dovute a un meccanismo di apprendimento che si basa solo sui dati e non su regole di ragionamento logico che permettono di distinguere vero da falso, o di riconoscere parole e frasi inopportune.

ChatGPT è quindi il risultato di una lunga serie di momenti chiave nella ricerca in AI (inclusi machine learning, deep learning e transformer) che, durante i decenni, hanno permesso all’AI di potenziare le sue capacità. Non è una grande sorpresa per i ricercatori di AI, ma è la prima volta che un sistema in grado di “conversare” su qualunque tema è disponibile a chiunque abbia accesso alla rete, e questa è una novità che cambia significativamente il rapporto tra società e AI. Infatti, l’AI è già presente in praticamente tutte le nostre attività, ma la sua presenza è spesso non percepita dagli utenti dei vari servizi. ChatGPT, invece, lo possiamo usare e ci possiamo conversare. Questa modalità di interazione scatena anche la nostra tendenza naturale ad antropomorfizzare una macchina, percependo una “intelligenza” simile a quella umana se osserviamo la generazione di risposte simili a quelle di una persona. Ci sembra quindi che l’AI abbia raggiunto il livello dell’intelligenza umana, e questo ci sorprende, ci affascina e ci spaventa.

Questa non è la prima volta che abbiamo una percezione simile. Già nel 1997, quando il programma Deep Blue di IBM vinse a scacchi contro Gary Kasparov, molti di noi provarono sorpresa e preoccupazione, perchè una macchina era riuscita a vincere contro il più grande campione mondiale a un gioco che per noi umani richiede un alto livello di intelligenza. Ma Deep Blue poteva contare su computer molto potenti e veloci, in confronto al nostro cervello, e su esperti umani che avevano aiutato i programmatori a codificare le migliori politiche di gioco. La sfida di Deep Blue è stata una pietra miliare per l’AI, ma non ha avuto un impatto negativo né sul gioco degli scacchi né sulle opportunità umane di usare la propria intelligenza.

Tornando a ChatGPT, in realtà ha acquisito un ottimo modello del linguaggio umano, ma non ha un modello del mondo, e non è stato addestrato a distinguere tra vero e falso o a supportare valori importanti per noi umani. Questo non significa che non possa essere molto utile in svariate applicazioni, ma vanno individuate con attenzione. Ad esempio, IBM sta mettendo a punto una modalità di uso di tecniche come quelle che supportano ChatGPT che si appoggia a dati aziendali specifici per ogni cliente, con l’intento di sfruttare le avanzate capacità di gestione del linguaggio naturale ma anche di mitigare i limiti e i rischi di un uso generale e poco controllato, che non sarebbe adatto ad applicazioni ad alto impatto sul benessere (fisico, psicologico e finanziario) delle persone.

Intelligenza Artificiale, rischi e valori umani

I vantaggi di questa tecnologia sono chiari, ma bisogna riconoscere che porta con sé anche alcuni rischi, dovuti in parte alla tecnologia stessa e in parte al fatto che provoca una trasformazione molto rapida della nostra vita.

Per individuarli, bisogna prima decidere che ruolo vogliamo che la tecnologia abbia nella nostra società. A mio avviso, il ruolo dell’AI è di supportare e accellerare la crescita e la consapevolezza intellettuale, culturale e sociale delle persone, unitamente alla protezione e al supporto dei valori umani.

Questo è condiviso in pieno dall’azienda in cui lavoro, che già nel 2017 ha definito tra i suoi principi fondamentali che “l’AI deve amplificare l’intelligenza umana, non rimpiazzarla”. Quindi, bisogna capire cosa vuol dire amplificare l’intelligenza umana, per poi poter capire se alcuni usi dell’AI possono mettere a rischio questo principio.

Per l’AI e per la tecnologia in generale, molti valori umani importanti potrebbero correre il rischio di essere impattati negativamente. Ad esempio:

  • Privacy: tra i rischi più importanti c’è la gestione dei dati, che spesso includono anche dati personali, da parte dei sistemi di AI. Sono quindi centrali le questioni legate alla privacy. Questo è particolarmente acuito con l’AI, dato che le tecniche di machine learning hanno bisogno di grandi quantità di dati. In Europa, la legge “General Data Protection Regulation” cerca di mitigare questo richio.
  • Fairness e Inclusione: è anche importante la questione dell’equità (“fairness”) e dell’inclusione: se non si usano dati bilanciati, l’AI, allenata su quei dati, potrebbe prendere decisioni che discriminano tra vari gruppi di persone. Inoltre, il suo uso e la possible eccessiva digitalizzazione, potrebbe escludere alcune categorie.
  • Libertà e controllo sulle decisioni: le tecniche di machine learning sono poco “spiegabili” (spesso non è chiaro come la macchina arriva alla sua decisione, a partire dai dati in input) e questo impatta sia sul controllo umano delle proprie decisioni sia sulla fiducia tra le persone e l’AI, compromettendone quindi la proficua collaborazione e il suo supporto al miglioramento delle abilità umane.
  • Impatto sulla crescita personale e l’innovatività umana: la capacità dell’AI di generare contenuti (come testo e immagini) introduce anche rischi legati all’impatto sul sistema educativo, sui lavori creativi, sull’apprendimento consapevole di meccanismi di ragionamento logico. Se gli studenti usano sistemi come ChatGTP per scrivere un tema, potranno imparare a creare nuove idee e quindi a contribuire alle innovazioni del futuro?
  • Verità e informazione: ChatGPT e sistemi simili a volte generano contenuti non veri, pericolosi o inappropriati. Senza un controllo attento, la condivisione di tali contenuti può creare false credenze e scardinare un sistema di rispetto e collaborazione basato sulla verità dell’informazione, sia a livello locale che globalmente.
  • Sicurezza e wellbeing: l’AI non deve mettere in pericolo la nostra sicurezza fisica e psicologica, e in generale il nostro wellbeing.

Non possiamo permettere a una tecnologia, e al suo uso, di danneggiare valori umani fondamentali. Questo è vero per ogni tecnologia, ma l’AI ha due fattori aggiuntivi da considerare. Primo, l’IA a questo punto sembra avvicinarsi ad un comportamento quasi umano, almeno nella padronanza del linguaggio. Secondo, il termine usato per questa tecnologia, Intelligenza Artificiale, ci spaventa per il timore di potere essere rimpiazzati da altre entità, percepite intelligenti come e più di noi. Questi fattori contribuiscono a mettere a rischio il nostro stesso senso di identità umana.

Ecco allora che le strategie di sviluppo e innovazione tecnologica si mescolano con le domande etiche sull’impatto dell’AI e che molti attori della società si trovano a parlare di etica molto più di quanto non facessero in passato riguardo ad altre tecnologie.

L’etica dell’AI: non solo teoria

L’etica dell’AI si occupa di identificare i problemi etici dell’uso pervasivo dell’AI nella nostra società e di fornire possibili soluzioni, sia tecniche che non, a questi problemi. E’ un campo di lavoro multi-disciplinare e multi-stakeholder, dove esperti di varie discipline (quali AI, economia, sociologia, filosofia, psicologia) e vari attori nella società (come aziende, università, politici, associazioni di cittadini e consumatori) lavorano insieme per generare soluzioni che includono principi, linee guida, strumenti tecnologici, sistemi di governance, standard internazionali, sistemi di analisi del rischio, e leggi, in un mosaico di azioni complementari che affrontano i problemi da vari angoli in modo da generare soluzioni globali.

Negli ultimi anni, molte aziende, associazioni, governi e istituzioni hanno pubblicato o stanno lavorando ad articoli scientifici, principi, requisiti, regole, certificati o standard e leggi, con l’intento di studiare e affrontare alcuni degli aspetti elencati sopra e legati all’etica dell’AI. Alcuni esempi sono:

  • Le Nazioni Unite: Il convegno annuale “AI for Good”, organizzato da una delle agenzia ONU, mira a capire come usare l’AI per avvicinarci agli Obbiettivi per lo Sviluppo Sostenibile delle Nazioni Unite, facendo incontrare gli esperti di AI con chi conosce sul campo i problemi da affrontare;
  • Il Foro Mondiale Economico, con i suoi gruppi di lavoro sull’AI che coinvolgono esperti di tutto il mondo in rappresentanza di aziende, governi e accademia;
  • la Commissione Europea, con il suo gruppo di lavoro multi-disciplinare sull’AI e la sua proposta di legge sull’AI, attualmente in discussione sia in Europa che in America;
  • la Casa Bianca, con l’“AI Bill of Rights”, che indica i diritti umani che non vanno danneggiati dall’IA o altre tecnologie;
  • Singole aziende come Google, Microsoft o IBM, che definiscono processi e politiche interne per lo sviluppo e l’uso dell’AI;
  • Convegni scientifici come AIES (AI, Ethics and Society) che presentano innovazioni tecnologiche e socio-tecnologiche ad una platea di esperti di varie discipline;
  • Organizzazioni come l’OECD (Organizzazione per lo Sviluppo e la Cooperazione Economica), con i suoi principi sull’AI;
  • Il Vaticano, con la “Rome Call for AI Ethics”, pubblicata nel 2020 e firmata da aziende come IBM e Microsoft, e recentemente (2023) anche da rappresentanti delle tre religioni abramiche.

Un approccio olistico all’etica dell’AI

Tra le principali aziende che sviluppano AI e la applicano in svariati scenari e settori, l’azienda in cui lavoro ha adottato un approccio olistico all’etica dell’AI, in cui vengono affrontati tutti gli aspetti con strumenti di vario tipo: principi, progetti di ricerca, strumenti open-source, prodotti e piattaforme, metodologie di governance ed educazione aziendale e anche collaborazioni con governi, altre aziende, associazioni e istituzioni.

Come ho accennato, IBM è stata la prima azienda a pubblicare nel 2017 i propri principi per lo sviluppo dell’AI, individuando nella trasparenza e la fiducia due proprietà fondamentali e indicando la volontà di creare AI a supporto dell’intelligenza umana e non per rimpiazzarla. Nel 2017 abbiamo anche definito e pubblicato una politica di gestione responsabile dei dati, che dichiara i dati di proprietà dei nostri clienti.

Questi principi guidano tutte le attività dell’azienda, a partire dai laboratori di ricerca, dove vengono studiate e sviluppate nuove soluzioni per creare un’AI “affidabile”, definita attraverso quattro linee principali: fairness (cioè non discriminazione), robustezza, spiegabilità e trasparenza. I ricercatori creano soluzioni scientifiche e tecnologiche innovative per individuare e correggere il bias in AI, per dare all’AI la capacità di spiegare le proprie decisioni anche quando si usano tecniche di machine learning, per minimizzare gli errori di queste tecniche e quindi renderle più robuste, oltre a metodologie per documentare la creazione dell’AI e quindi dare trasparenza al processo di sviluppo.

Studi e programmi sull’impatto dell’AI nel mondo del lavoro vengono effettuati internamente o in collaborazione con istituzioni accademiche. Inoltre, programmi gratuiti come SkillsBuild, attivo anche in Italia, aiutano i giovani ad avere le nozioni per entrare in un mondo del lavoro che è ormai pervaso dall’AI.

Perchè un’azienda possa veramente produrre AI responsabile e affidabile, è necessaria una collaborazione e un coordinamento tra tutte le divisioni aziendali. Per questo abbiamo istituito nel 2018 un comitato interno per l’etica dell’AI, che io presiedo insieme al dirigente per la privacy dei dati, che include rappresentanti della ricerca, unità di business, comunicazioni, ufficio legale e chi si occupa della privacy dei dati, con lo scopo di favorire la condivisione di informazioni, processi e materiale utile sull’AI e la sua etica tra le varie divisioni e di aiutare le unità di business a discutere e risolvere eventuali dubbi etici su soluzioni e prodotti: se una proposta di prodotto non passa il vaglio del comitato etico dell’AI, il prodotto non viene creato.

Inoltre, un approccio multi-stakeholder è necessario non solo al proprio interno, ma anche a livello globale. Per questo IBM partecipa o guida le iniziative globale di maggiore impatto sull’etica dell’AI, quali la Partnership on AI (dal 2016), il gruppo di esperti IA della Commissione Europea (2018-2020) e la Call for AI Ethics della Pontificia Accademia per la Vita (2020).

Costruire un futuro ideale per l’AI e per noi: tutti possiamo e dobbiamo contribuire

L’AI ha una presenza e un impatto pervasivo nella nostra vita a livello globale nella società e nel mondo. Quindi sta modellando la nostra vita e lo farà sempre di più. Per evitare di lasciarci trasportare in modo passivo verso un futuro che non supporta i nostri valori, serve uno sforzo di consapevolezza e collaborazione per identificare tutti insieme la visione del futuro che vogliamo e le traiettorie che giudichiamo accettabili per raggiungerlo.

L’etica dell’AI supporta questo sforzo globale attraverso un lavoro multi-stakeholder in cui tutti hanno un ruolo importante: aziende, legislatori, accademici, media, società e anche noi singoli individui e utenti di servizi supportati dall’AI.

In quanto ricercatrice di AI, faccio del mio meglio per capire come migliorare questa tecnologia e mitigare i rischi delle sue applicazioni, sia nei miei progetti di ricerca che nei processi aziendali che l’azienda utilizza. Sento anche la responsabilità di far capire ai non addetti ai lavori che cos’è veramente l’AI e che ruolo può avere nel nostro futuro. Sono consapevole delle opportunità e dei rischi dell’uso di questa tecnologia e sono ottimista, perchè in pochi anni ho visto grandi passi avanti e un incremento esponenziale delle iniziative, sia nell’AI che in un approccio globale al suo uso responsabile.

Ognuno di noi può contribuire, usando la tecnologia in modo consapevole, responsabile e rispettoso degli altri e dell’ambiente. Non affidiamoci alla tecnologia in modo passivo. Usiamola per capire meglio, per affinare le nostre conoscenze, esplorare nuove aree, confrontarci con altre persone, cambiare idea, raggiungere dei compromessi e collaborare. Rendiamo concreto nella nostra quotidianità il principio di migliorare noi stessi attraverso la tecnologia, non il contrario. Tutti possiamo e dobbiamo contribuire a creare un futuro dove l’AI supporti i nostri valori.

Bibliografia

Intelligenza Artificiale e Machine Learning:

Artificial Intelligence: A Modern Approach, 4th Edition, Stuart Russell, Peter Norvig, Pearson, 2020

Deep Learning, Aaron Courville, Ian Goodfellow, and Yoshua Bengio, 2016.

Pattern Recognition and Machine Learning, Christopher Bishop, Springer, 2006.

AI fairness e spiegabilità:

A Survey Of Methods For Explaining Black Box Models, Riccardo Guidotti et al, 2018, https://arxiv.org/abs/1802.01933

  • Il confine del futuro: Possiamo fidarci dell’Intelligenza Artificiale? Francesca Rossi, Feltrinelli, 2019

Leggi sull’IA:

  • General Data Protection Regulation (GDPR), 2016
  • The EU AI Act, 202, https://artificialintelligenceact.eu/
  • AI Bill of Rights, OSTP, White House, 2022

Principi aziendali sull’etica dell’IA:

Convegno annuale sull’etica dell’IA:

Iniziative globali sull’etica dell’IA:

How global tech companies can champion ethical AI, World Economic Forum, 2020

IA e etica in IBM:

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati