AI e neuroscienze

Una coscienza per l’intelligenza artificiale: il punto su teorie e sviluppi

Quando l’intelligenza artificiale (IA) e il deep learning conquistano livelli più sofisticati, torna alla ribalta l’idea di dotare le macchine di coscienza. Ecco le posizioni in campo

Pubblicato il 10 Nov 2021

Alessio Plebe

Università degli Studi di Messina

Intelligenza artificiale, una task force a supporto della crisi pandemica

L‘intelligenza artificiale può raggiungere livelli sempre più sofisticati e paragonabili a quelli umani, ma ciò non significa che debba avere anche una coscienza. La sfida, tuttavia, è troppo importante e avvincente perché l’uomo non la tenti. Proviamo allora a capire quali potrebbero essere i traguardi.

AI, verso una terza dimensione ibrida “uomo-macchina”? La sfida (morale) da vincere

Il dibattito sull’intelligenza artificiale

Come in ogni dibattito sulle potenzialità dell’intelligenza artificiale vi sono: gli ottimisti, che vedono un traguardo possibile per le macchine coscienti, pur se difficile; e coloro che ne fanno invece un limite di principio, un obiettivo senza speranze.

Tra questi ultimi possiamo distinguere ulteriormente due atteggiamenti opposti: per pensatori che simpatizzano con l’IA – per esempio Yuval Harari – l’intelligenza artificiale può tranquillamente raggiungere livelli di intelligenza illimitati senza nessun bisogno di coscienza; chi invece tende a denigrare l’intelligenza artificiale utilizza l’argomento dell’impossibilità di dotarsi di coscienza come dimostrazione della sua inconsistenza, e di quanto sia inappropriato il termine “intelligenza” in Intelligenza artificiale.

Già nella diatriba riguardo all’appropriatezza di definire intelligente una macchina, pesava la vaghezza del termine “intelligenza”. Parlando di coscienza diventa ancor più problematico chiarire di quale proprietà si stia discutendo. Nonostante la profusione di studi riguardo la coscienza nell’ultimo mezzo secolo, e gli indubbi progressi raggiunti, non esiste attualmente una visione condivisa su questo singolare fenomeno.

La coscienza umana diventa oggetto di scienza

Per secoli la coscienza è stata considerata il cardine della natura umana, sia nel pensiero di filosofi come Locke, Kant, Hegel, sia nel senso comune. Per molte culture, inoltre, la rilevanza della coscienza è stata rafforzata dal sentimento religioso, dove trova buona compagnia in concetti come “anima” e “spirito”.

Senza dubbio la coscienza continua ad essere considerata lo scrigno pregiato della nostra mente per molta gente. Non saranno poche le persone che ricordano di essere state esortate a un “esame di coscienza”, da parte di genitori, insegnanti o preti. E se qualcuno ha provato davvero a mettere in pratica quella esortazione, avrà immaginato di entrare nei segreti più reconditi della propria mente, di verificare i propri più genuini desideri, le proprie credenze, i propri piani di vita ed eventualmente rammaricarsi nel trovarli moralmente discutibili.

Da Sigmund Freud alle neuroscienze

Già a fine Ottocento Sigmund Freud aveva messo in guardia su quanto poco di noi stessi sia accessibile alla coscienza, e come desideri, paure, attitudini sociali, non solo derivino da meccanismi mentali inconsci, ma siano tipicamente legati in modo inaspettato alla sfera sessuale. Addirittura, un estraneo può scrutare i meandri di noi stessi molto meglio del celebrato “esame di coscienza”, se con una formazione professionale da psicoanalista.

Molta psicoanalisi era speculazione, ma l’idea che ben poco dell’attività mentale affiori alla coscienza ha trovato una piena conferma nelle neuroscienze, che dagli inizi del Novecento hanno offerto un fondamento scientifico prima inimmaginabile allo studio della mente.

Le indicazioni che man mano sono emerse dallo studio del cervello non si sono limitate a confermare l’esigua porzione dei processi coscienti rispetto a quelli inconsci. Hanno inoltre suggerito che avere coscienza, in quei pochi processi su cui la manteniamo, non sia poi così importante come sembra.

Il ridimensionamento della coscienza

Infine, la coscienza è il prodotto di una costruzione del cervello, per diversi versi ingannevole, ben diversa dall’idea intuitiva di un vero e proprio teatro del mondo entro cui noi agiamo. Uno degli inganni principali di questa costruzione darebbe proprio la sensazione di un “io” che sta a capo di tutto, dirige il proprio cervello e orchestra il proprio corpo. Esistono invece un complesso di processi paralleli realizzati da diverse aree cerebrali, di cui alcune provvedono ogni tanto a costruire un’unificazione di attivazioni neurali remote producendo l’illusione di un “io”. Questo è il quadro che delineano neuroscienziati come Michael Gazzaniga e Thomas Metzinger, ma anche la base di riflessione di filosofi quali Daniel Dennett e Patricia Churchland.

Naturalmente oltre a ridimensionare la coscienza le neuroscienze hanno anche cercato di scoprire come funziona. Questo è l’obiettivo che da trent’anni persegue Christof Koch, che si è avvalso della collaborazione del premio Nobel Francis Crick, fino alla sua scomparsa nel 2004. Le loro ricerche hanno prodotto dettagliati risultati per la consapevolezza visiva, individuando alcune (usando il loro termine) “coalizioni” tra circuiti neurali nel sistema visivo necessarie per provare consapevolezza di quel che vediamo.

Il concetto di “coalizione” per la coscienza visiva è imparentato con diverse idee sulla necessità di integrazione tra processi neurali distinti per ottenere coscienza. Deriva dalla constatazione della molteplicità parallela di processi cerebrali, che contrasta con la nostra sensazione unitaria, l’esigenza che il meccanismo neurale alla base della coscienza operi una sorta di integrazione.

Coscienza e meccanica quantistica

Una delle prime proposte in questo senso è il cosiddetto spazio globale di Bernard Baars, un momento di integrazione di svariati flussi di processo neurale, che produce il senso di unitarietà così importante nella coscienza. A questa sono seguite diverse varianti e sviluppi, come la proposta dell’informazione integrata di Giulio Tononi, che adotta lo stesso concetto prendendo a prestito un po’ di matematica della teoria classica dell’informazione.

Il quadro è tutt’altro che completo, la gamma di tentativi di dare un fondamento neuroscientifico alla coscienza sono molti, arrivano persino a scomodare la fisica quantistica. Il primo proponente è stato un insigne fisico e matematico inglese, Roger Penrose, in collaborazione con un anestesiologo, Stuart Hameroff. Si trattava di un tentativo ardito ma plausibile, di ridurre un fenomeno macroscopico a meccanismi fisici su scala microscopica. In particolare avrebbero dovuto essere i microtuboli, sottili polimeri che costituiscono la parete di alcuni neuroni, a essere la sede del collassare di stati quantistici in uno stato stabile che costituirebbe lo stato cosciente.

Per quanto suggestiva questa ipotesi ha trovato poca presa sia in ambito neuroscientifico, dismessa per esempio da Koch e Crick, sia da parte di fisici. In particolare Max Tegmark ha sviluppato in dettaglio le condizioni fisiche dei microtuboli mostrando che non possono essere sede dell’effetto quantistico ipotizzato. Ma aver associato la fisica quantistica alla coscienza ha prodotto un inaspettato seguito, ben poco scientifico. Come rimarcato dal fisico Victor Stenger l’intrinseca difficoltà a dare un senso concreto alla meccanica quantistica ha innescato una serie di speculazioni interpretative piuttosto esoteriche.

L’esperimento mentale di David Chalmers

Non tutti i filosofi della mente hanno accolto le scoperte neuroscientifiche sulla coscienza con lo stesso entusiasmo di Dennett e Churchland. Altri hanno sostenuto invece che la coscienza è in linea di principio fuori dalla portata dell’indagine scientifica. Sarebbe stato un controsenso supportare questa affermazione con …argomenti scientifici, e quindi la strategia messa in campo da questi filosofi è il classico esperimento mentale, indurre a pensare una situazione tale da convincerti della tesi sostenuta.

Uno dei primi lo ha proposto Thomas Nagel, invitando a pensare cosa si provi ad essere un pipistrello. Per quanto la scienza possa indicare quali parti dei cervelli di uomini o pipistrelli facciano scaturire esperienze coscienti, tali dotte nozioni non ci facilitano certo il curioso compito di mettersi nei panni del volatile.

L’esperimento mentale di David Chalmers riguarda cosiddetti “zombie”, ma non quelli orrendi e spaventosi che nei film escono dalle tombe. Al contrario, normalissime persone, con medesime fattezze e nulla di differente nei loro comportamenti. L’unica loro peculiarità sarebbe di non essere dotati di coscienza. Anche qui quel che Chalmers vuol portare a constatare è l’impotenza della scienza, che non può nemmeno distinguere uno “zombie” (filosofico) da una persona normale, visto che hanno identiche strutture, figuriamoci quindi spiegare cos’è la coscienza.

Coscienza e IA

L’esperimento di Chalmers ha correlati interessanti, che vanno oltre la sua pretesa di porre limiti all’indagine scientifica sulla coscienza. Poter immaginare creature che hanno identiche capacità di esseri umani, ma non hanno coscienza, implica che quest’ultima sarebbe un orpello curioso, di nessuna utilità pratica. Non solo, potrebbe prefigurare un mondo tecnologico in cui regna la più perfetta armonia tra umani e macchine artificiali. Se tra persone coscienti circolano “zombie” e nessuno ci fa caso, non sarebbe un problema avere di mezzo anche robot umanoidi, non fa niente se non sia stato possibile dotarli di coscienza.

Beninteso, gli “zombie” di Chalmers non esistono, e il suo argomento è spesso contestato proprio per partire da una fantasia impossibile. Esistono tuttavia varie evidenze neuroscientifiche sulla poca utilità della coscienza. Un esempio è il fenomeno noto come blindsight, letteralmente “visione cieca”. Si tratta di soggetti che per vari motivi, spesso un ictus, hanno perso la funzionalità della corteccia visiva primaria, con la conseguente mancanza di coscienza visiva.

Anche se loro riportano di non vedere nulla, riescono ad eseguire compiti in cui la guida visiva è necessaria, come muoversi in un ambiente con ostacoli. Se interpellati sul motivo dei loro spostamenti, riportano che erano del tutto casuali. La motivazione più accreditata della loro sorprendente capacità è l’impiego di una parte del sistema visivo retaggio di animali evolutivamente precedenti, un’area denominata collicolo superiore.

È plausibile che i vertebrati la cui visione sia basata esclusivamente su questo sottosistema cerebrale, come rane e pesci, non abbiano coscienza visiva, ma questo non preclude loro l’abilità di muoversi grazie alla
percezione dell’ambiente.

Pur se smitizzata e ridimensionata dalle evidenze neuroscientifiche, non è facile disfarsi con leggerezza della coscienza. Anzitutto noi ci siamo decisamente affezionati. Come osserva il filosofo Pietro Perconti, se una persona si prospettasse ogni possibile guaio che la sorte potesse riservargli nella vita, riterrebbe di gran lunga peggiore quello di perdere la propria coscienza.

Notiamo come non si possa nemmeno dire che si sarebbe dispiaciuti a rimanere senza coscienza, perché il provare dispiacere è un fenomeno che pertiene alla coscienza. Ben poco ci importa di poter essere ancora in grado di muoverci e agire grazie ai potenti processi inconsci del nostro cervello, una vita in cui avessimo perso la nostra coscienza ci sembra non essere una vita.

La cognizione sociale

Inoltre, vi sono alcune teorie che suggeriscono una funzione davvero utile per la coscienza, legata alla cognizione sociale. Diverse delle società in cui si organizzano alcune specie animali richiedono un’abilità di percezione dell’ambiente specializzata: capire che intenzioni hanno i conspecifici con cui ci si trova ad interagire.

La nostra è sicuramente una delle società che lo esige in modo particolarmente raffinato. Per questa funzione il nostro cervello, come probabilmente quello di altre specie sociali, in aggiunta alla dotazione percettiva standard, possiede un modulo elaborativo denominato mindreading, che cerca di simulare quel che sta facendo una persona osservata, impiegando una sorta di modello di come funzionano le persone.

L’assunzione di base è che le azioni di una persona sono il frutto di un suo piano, per raggiungere certi scopi. Per esempio, vedendo una persona andare speditamente verso un tavolino dove aveva lasciato un boccale pieno di birra, interpretiamo il suo movimento come motivato dalla sete e dal desiderio di spegnerla sorseggiando dal boccale.

Ma per esserci utile, questa sorta di rappresentazione di eventi in cui sono protagonisti alcuni attori, deve includere noi stessi, ed è qui che sorge la coscienza. Continuando lo stesso esempio, se vediamo la persona che voleva bersi la sua birra tornare verso di noi, e la percezione visiva dell’espressione del suo volto viene catalogata come piuttosto arrabbiato, deduciamo che lui ha capito che gli abbiamo fregato la birra, e la cosa non gli è piaciuta. A questo punto mettiamo in azione i muscoli delle gambe per allontanarci rapidamente.

La coscienza sarebbe pertanto l’impiego dello stesso modello di come funziona un conspecifico, usato per noi stessi proiettati nello stesso teatro dell’ambiente in cui agiscono gli altri. È così che, tra gli altri, il filosofo Peter Carruthers spiega la coscienza, e la buona ragione che ne giustifica l’esistenza.

Intelligenza artificiale, lo scenario dei nuovi studi

Pur riconoscendo quanto sia importante la cognizione sociale, e quanto noi tutti siamo affezionati alla nostra coscienza, il drastico ridimensionamento dei suoi ruoli nel complesso dei comportamenti mentali, ha l’immediato effetto di neutralizzare una delle armi più spesso puntate contro l’intelligenza artificiale: non ci può essere intelligenza senza coscienza.

Come sottolineato varie volte da Harari, confondere coscienza ed intelligenza è uno dei principali errori di prospettiva nella valutazione dell’intelligenza artificiale. Una delle più celebri e più raffinate formulazioni della pretesa necessità di coscienza per l’intelligenza è dovuta al filosofo John Searle nel 1980, con un altro esperimento mentale noto come “la stanza cinese”.

Alan Turing fu il primo ad affermare compiutamente che le macchine potrebbero essere dotate di intelligenza, e lo si sarebbe potuto dimostrare lasciando che una macchina del genere conversasse amabilmente con un essere umano.

New call-to-action

La stanza cinese di John Searle

Searle fa il verso in modo sornione a questo tipo di dimostrazione, con una persona, cinese, che conversa con una stanza chiusa, dotata di una finestrella tramite cui scambiare messaggi scritti, ovviamente in cinese. Dentro la stanza c’è un uomo, non cinese, che dispone di un portentoso manuale, in cui da un lato si trova il messaggio ricevuto, e dall’altro il messaggio con la miglior risposta possibile.

Searle induce così a convincersi che il sistema funziona come vorrebbe Turing, ma che non è per niente intelligente, in quanto l’uomo che opera nella stanza non capisce un solo ideogramma di cinese. Ovvero, la conversazione va avanti liscia, ma dal lato della stanza non c’è coscienza di quel che si dice.

È lampante come succeda esattamente lo stesso nell’esperimento mentale di Chalmers, quando un suo “zombie” si intrattiene a conversare con un umano cosciente. In questo caso non è per niente convincente dover affermare che l’umano cosciente è intelligente mentre non lo è lo “zombie”. O se insistessimo a ritenere la coscienza condizione necessaria per l’intelligenza, dovremo per principio dubitare che chiunque abbia a che fare con noi sia un essere intelligente, dato che non c’è nulla di esteriore che riveli la coscienza.

Lo scenario dei nuovi studi scientifici sulla coscienza, prima sintetizzato, ci dice quanta intelligenza profusa nei nostri comportamenti, nel nostro parlare, nel nostro agire, sia realizzata da processi in larga parte non coscienti. Pur senza arrivare ai fantasiosi “zombie”, non ci sono limiti di principio ad implementazioni artificiali di comportamenti pienamente definibili intelligenti, realizzati in assenza di coscienza. Per esempio: sistemi di guida autonoma, di diagnosi medica, di dialogo automatico.

Il retaggio di Searle che continua a riemergere nelle tante obiezioni all’IA del tipo “sì, questa macchina pare sia in grado di fare questo compito, ma in realtà non capisce quel che sta facendo” ha fatto il suo tempo, messo in pensione dalla neuroscienza.

Pur se l’IA può quindi tranquillamente fare a meno di coscienza, poterla dotare di qualche forma è una sfida troppo importante ed avvincente per non essere stata accolta da un ragguardevole numero di ricercatori nel mondo. Esistono due linee diverse, che fanno capo ai due aspetti salienti della coscienza umana prima descritti: la sua funzione integrativa tra processi cerebrali paralleli e il suo ruolo nella cognizione sociale.

Intelligenza artificiale e coscienza

Per quanto riguarda la funzione integrativa, la teoria dello spazio globale di Baars ha ispirato un modello computazionale, proposto a cavallo del 2000 da Stan Franklin, noto con l’acronimo LIDA (Learning Intelligent Distribution Agent). Gli “agenti” sono software dedicati a processi specifici, di tipo sensoriale, di localizzazione spaziale, estrazione di caratteristiche di oggetti, e così via. Questi processi sarebbero di tipo inconscio.

Gli agenti confluiscono in uno spazio di lavoro comune, dove un processo selettivo cattura le porzioni di informazione da mettere insieme, che sarebbero quelle affioranti la coscienza. Difficile dire quanto di questa architettura possa assomigliare veramente alla coscienza. Il problema principale è che LIDA appartiene al passato dell’intelligenza artificiale, in cui i modelli, pur se ben fondati teoricamente, erano troppo lontani dai comportamenti cognitivi dell’uomo. Tutto ciò che LIDA era in grado di fare è replicare certi esperimenti psicologici in cui l’input sensoriale è semplificato al massimo, tipicamente uno schermo nero con qualche quadratino luminoso.

Reti neurali e deep learning

Sarebbe chiaramente di tutt’altra portata un tentativo di equipaggiare di coscienza l’IA che oggi ha raggiunto prestazioni molto vicine a quelle umane. Come raccontato più volte, si tratta del deep learning, le reti neurali con molti strati che hanno rivoluzionato l’IA.

Uno degli artefici del deep learning, Yoshua Bengio, ha lanciato una nuova direzione di ricerca sotto lo slogan “The Consciousness Prior”, che fa anche da titolo all’articolo con cui la propone. Bengio coniuga due aspetti salienti della teoria dello spazio globale con altrettante analogie dei modelli deep learning. La coscienza opera al livello mentale più elevato, i suoi ingredienti sono tipicamente concetti, sfrondati dalla miriade di attributi dettagliati che ciascun concetto può possedere. Inoltre opera in uno spazio a bassa dimensione, di volta in volta quel che ci passa per la testa non può tenere assieme più di una manciata di concetti diversi.

I processi inconsci al contrario operano su spazi ad elevatissima dimensionalità, con centinaia di milioni di attivazioni neurali, per esempio in risposta a caratteristiche percettive estremamente minute. Il meccanismo che permette di selezionare ciò che di volta in volta è utile disporre nello spazio globale, a disposizione della coscienza, sfrondando tutto il resto, è l’attenzione.

Intelligenza artificiale e deep learning

I modelli deep learning abitualmente corrispondono a processi inconsci, catturando un’enorme quantità di caratteristiche minute, per esempio da segnali di tipo visivo. Ma da qualche anno il deep learning ha perfezionato anche dei modelli di attenzione particolarmente sofisticati, che riescono a catturare le possibili interrelazioni tra caratteristiche disparate, e di conseguenza a selezionare quelle salienti.

Il principale sistema di attenzione in reti neurali artificiali, introdotto nel 2017, è denominato Transformer, e ha segnato una svolta epocale nell’elaborazione del linguaggio naturale, aprendo la strada a modelli come GPT Generative Pre-trained Transformer.

È evidente come una delle difficoltà principali nel comprendere il linguaggio sia proprio la possibilità di cogliere le reciproche dipendenze tra le varie parole che compongono la frase, e non solo, anche i riferimenti tra elementi di frasi precedenti. Tuttavia il Transformer è un “sistema attentivo” che funziona su qualunque serie di vettori numerici, formato universale per ogni genere di rappresentazione in modelli neurali artificiali.

Ecco perché Bengio lo considera lo strumento vincente nella costruzione di modelli deep learning avanzati, in cui l’attenzione realizzi il portare nello spazio globale, chiamiamolo generosamente “coscienza”, quella manciata di variabili che rappresentano i concetti di volta in volta cruciali.

IA, robot che dialogano con sé stessi

Un deep learning che implementi l’idea di spazio globale alla Baars probabilmente potrebbe trarne qualche vantaggio, soprattutto in compiti ad alto livello. Tuttavia, si tratterebbe di una miglioria tecnologica, che per quanto ispirata ad una funzione della coscienza umana, non sarebbe un’evidenza eclatante e convincente di coscienza artificiale.

Può risultare ben più accattivante il tentativo di realizzare artificialmente l’altro principio visto per la coscienza umana, il rivolgere verso sé stessi l’apparato cerebrale per la cognizione sociale. Soprattutto, è proprio in ambito sociale che l’interazione con le macchine, nella fattispecie con robot umanoidi, diventerebbe ben più convincente ed efficace, se si potesse attribuire loro qualche barlume di coscienza.

Il principio generale di impiegare i nostri strumenti per leggere dinamica mentale di altri con cui interagiamo, verso noi stessi, assume una forma particolare negli umani, per via del linguaggio.

Robot umanoidi e intelligenza artificiale

Così come formuliamo enunciati linguistici pubblici per scopi sociali, analogamente “parliamo” con noi stessi. Una buona parte del nostro flusso di coscienza ha la forma di un linguaggio interiore, strutturato in modo analogo a quello pubblico. Un interessante ed ardito filone di ricerca, condotto da Antonio Chella nel RoboticsLab da lui diretto, mira a dotare robot umanoidi di forme di linguaggio interiore. Il robot è Pepper, della giapponese SoftBank Robotics (derivato dal popolare NAO), che già vanta qualche impiego sociale, come nel dare informazioni in aeroporto o per assistenza in ospedali e case di riposo.
Nelle ricerche di Chella il suo linguaggio interiore è realizzato impiegando realmente i suoi moduli di sintesi vocale, ma rediretto verso il suo apparato uditivo, in modo che quel che proferisce diventi parte dell’insieme di informazioni percepite. Beninteso, il livello cognitivo di questi robot è drasticamente limitato rispetto a quello di un uomo, e necessariamente il vocabolario e lo spazio concettuale del suo linguaggio interiore non avvicina nemmeno lontanamente la ricchezza del nostro.

In un esperimento il compito del robot consiste nell’apparecchiare una tavola, rispettando la disposizione di piatto, posate e altro dettata dal galateo. Il robot, man mano che comprende le richieste dell’interlocutore, ripete a sé stesso il tipo di azione che intende mettere in atto per soddisfare la richiesta. E si interroga quando incontra degli inconvenienti, per esempio nell’afferrare uno degli elementi per comporre la tavola. Questo suo parlare interiore può essere reso udibile anche alla persona con cui interagisce, innescando un senso di intesa con la macchina, del tutto diverso rispetto al robot silente.

Conclusioni

Per un verso il quadro di conoscenze attuali sulla coscienza e sul suo ruolo complessivo per un agente intelligente, sembra rassicurante per l’intelligenza artificiale. Non sembrano esserci limiti al raggiungimento di livelli di intelligenza sempre più sofisticati e paragonabili a quelli umani, anche senza nemmeno l’ombra di coscienza.

Per l’altro verso, perseguire quelle specifiche forme di coscienza per le quali si ravvede un ruolo importante nell’uomo, anche nelle macchine pare una ricerca fattibile, pur se ancora ad uno stadio immaturo.

Oltre al valore intrinseco nel tentare una delle sfide più estreme dell’intelligenza artificiale, i suoi traguardi potrebbero essere preziosi nel facilitare l’interazione sociale tra le persone e le macchine, soprattutto con i robot umanoidi. Anche quando dotati di appena una scintilla di coscienza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2