Gli scenari

Metaverso, ecco i rischi per la privacy e le tutele possibili

Quali saranno i diritti e i doveri nel metaverso? Chi dovrà farli rispettare? I rischi che derivano dal trattamento dei dati personali, i possibili scenari legati alla manipolazione dei comportamenti, il ruolo del regolamento europeo sull’IA

Pubblicato il 19 Gen 2022

Alessandra Lucchini

Avvocato cassazionista - DPO

Stefania Pellegrini

Avvocato e consulente privacy

metaverso facebook

Il Metaverso è diventato uno dei principali argomenti di dibattito insieme all’evoluzione futura di Internet e delle sue infrastrutture tecnologiche. Quali saranno diritti e doveri nel nuovo mondo digitale, con i connessi rischi della privacy?

Dal metaverso al metacapitalismo: un nuovo stadio del capitalismo della sorveglianza?

Diritti e doveri nel Metaverso: la questione della governance digitale

Al centro, come ha scritto Neal Williams in “Incredibile Metaverse: prepararsi per il prossimo Internet” [2] ci sono la creazione digitale, i beni digitali, le transazioni digitali, la moneta digitale ed il consumo digitale, soprattutto in termini di esperienza dell’utente, raggiungendo un regno dove il reale e il virtuale sono mescolati. Lo stesso autore fa riflettere chiedendo “dove sta andando il mondo e qual è il bisogno ultimo degli esseri umani?” riscontrando poi che “le leggi del mondo non sono spostate dalla volontà umana”.

I temi prioritari, infatti, che la società reale (e non le società che investono sul Metaverso) deve affrontare per conto di quella virtuale sono sicuramente quelli delle responsabilità e dei doveri. Quali diritti si avranno? Chi deve formulare le leggi valide nel Metaverso? E soprattutto chi deve farle rispettare?

Sarà dunque necessaria una vera e propria governance del digitale. Proprio per questo è intensa l’attività dell’Unione Europea sul punto, concentrata attualmente su quattro proposte di regolamento che vanno in questa direzione:

  • Proposta di Regolamento EU 112/2018 che promuove equità e trasparenza per gli utenti commerciali dei servizi di intermediazione online;
  • Proposta Regolamento 850/2020 relativo a un mercato unico dei servizi digitali; Proposta di Regolamento 842/2020 relativo a mercati equi e contendibili nel settore digitale;
  • Proposta di Regolamento 106/2020 relativo a regole armonizzate sull’intelligenza artificiale (AI).

Nei prossimi mesi potremmo dunque avere un primo embrionale approccio alla regolamentazione del Metaverso, sperando che ciò avvenga prima della messa a terra del progetto di Zuckerberg (o chi per lui) e non – come spesso accade – già a cose fatte.

Tra le tante argomentazioni che andrebbero affrontate tramite una regolamentazione, prima tra tutte dovrebbe esserci quella della circolazione dei dati personali.

Metaverso e privacy: tutti i rischi sul trattamento dati personali

Non si può tralasciare neanche per un secondo il tema della circolazione e protezione dei dati personali di questa rivoluzione digitale. Rispetto al trattamento dei dati del social network, dobbiamo affrontare due diverse misure: quantità e qualità dei dati.

Se parliamo di Metaverso dobbiamo infatti considerare ancor più interconnessione tra utenti e aziende, tra i diversi metaversi esistenti e le tipologie di esperienza, con ciò generandosi un flusso di dati personali di portata inimmaginabile, che non si limita a ciò che sono gli utenti, ma anche a quello che vorrebbero essere, a quello che desiderano, a quello che sognano. Facebook, così come le altre realtà che si stanno muovendo in questa direzione, potrebbero avere accesso così a un numero ancora più ampio di dati personali, creando dei veri e propri monopoli di potere. E come ha affermato[3] Antonello Soro, ex Presidente dell’Autorità Garante, in merito all’acquisizione Fitbit, “Il controllo di un così grande patrimonio informativo produce – come nel caso degli altri giganti del web – un potere abnorme nella disponibilità di pochi soggetti privati che incide negativamente sulla tenuta delle democrazie nel pianeta”.

Ed in tema di esperienze virtuali, già l’Autorità Garante per la privacy aveva mosso le prime perplessità con l’avvento sul mercato italiano degli occhiali intelligenti di Facebook (e prima di altri). Questo device risulta essere sempre connesso con gli smartphone, è posizionato tra naso e fronte, come degli occhiali normali, e permette in ogni momento di scattare foto, registrare video, pubblicare sui social e rispondere alle telefonate. Da noi ci vorrà ancora molto tempo prima che le persone riescano a capire che se qualcuno sta poggiando il dito sulla stanghetta dei propri occhiali, in realtà sta scattando una foto o avviando una registrazione” ha affermato[4] in merito Guido Scorza, membro del collegio del Garante. “Ciò che mi preoccupa è l’utilizzo ‘con leggerezza’ dell’occhiale da parte di soggetti che non hanno piena consapevolezza dei rischi connessi alla condivisione di dati personali online. Pensiamo ai minorenni. Le novità della tecnologia possono causare danni irreparabili ai dati delle persone. La chiave è regolamentare. Senza, però, ostacolare la diffusione delle novità. Servirà un equilibrio.

Ancora prima, Pasquale Stanzione, Presidente del Garante per la protezione dei dati personali, aveva dichiarato[5] sugli smart glasses: “L’apparente ‘innocuità’ di oggetti di uso quotidiano connessi alla rete ci induce a sottovalutarne i rischi, dovuti alla capacità di rivelare, mediante l’uso secondario dei dati raccolti, stili di vita, patologie, vulnerabilità, finanche dipendenze. E proprio i dati sanitari, se indebitamente acquisiti, possono esporre l’interessato a forme di discriminazione inaccettabili. Alcuni smartwatch idonei alla rilevazione biometrica (ad esempio per la velocità del passo) possono, poi, rivelare le reazioni emotive dell’utente alla visione di determinate immagini. Il controllo cui ci esponiamo può superare, dunque, persino la dimensione corporea e attingere al pensiero, condannandoci a vere e proprie servitù volontarie [..]. Vanno promosse la consapevolezza, da parte degli utenti, del valore dei propri dati, ma anche la comprensione, da parte delle aziende, di come la protezione dati rappresenti un fattore competitivo e reputazionale strategico, rendendo la tecnica alleata e non nemica delle libertà”.

Proviamo dunque ora a pensare al volume dei dati o dei metadati che si potrebbero generare e raccogliere nel Metaverso. È potenzialmente infinito, così come sono infinite le tipologie: movimenti, emozioni, stati psicologici, reazioni e dati biometrici (pensiamo solo alle sembianze dell’avatar, più simile possibile alle nostre espressioni e lineamenti) sono solo alcuni. Uno dei rischi da considerare è che l’utilizzo di intelligenza artificiale potrebbe generare anche una manipolazione delle nostre interazioni sociali, con il continuo monitoraggio delle nostre abitudini di consumo, le nostre opinioni e i nostri gusti, con la possibile conseguenza che i comportamenti umani diventino ben presto meramente merce.

Fondamentale diviene sempre più l’utilizzo delle più aggiornate misure di sicurezza ed una metodologia certa nell’ambito della gestione del data breach, considerato altresì che il Metaverso potrebbe generare nuove fonti di illeciti, così come indispensabile diviene la separazione di una dimensione pubblica da quella privata, senza che ciò significhi anonimia. L’avatar, infatti, non è solo una icona grafica ma l’identità di una persona. Mantenere l’identità in ogni ambiente del Metaverso è l’unico modo per vantare dei diritti e per assumerci delle responsabilità che dobbiamo avere anche nel mondo virtuale.

Un altro punto principale su cui bisognerebbe riflettere è se – come popolo – siamo pronti davvero per questa rivoluzione. Gli utenti attualmente hanno la consapevolezza necessaria in ordine alla protezione dei propri dati personali? Le aziende hanno sufficiente sensibilità sul tema? o forse sarebbe il caso di fare un passo indietro e costruire prima le basi di questa consapevolezza?

Il Metaverso e i possibili scenari legati alla manipolazione

Come sostiene il giornalista Pierattini, il Metaverso sarà “la prossima grande scommessa a cavallo tra tecnologia e social media. L’idea di costruire un nuovo mondo virtuale come diretta evoluzione di Internet è un boccone goloso per tantissime aziende che stanno già pensando ai soldi (anche quelli virtuali) che riscuoteranno dagli utenti per vendere loro l’accesso a un nuovo universo fatto di esperienze, film, concerti, incontri, giochi e tutto ciò che riesci ad immaginare in forma digitale”[6].

E tutto ciò porta, come detto, inevitabilmente a ragionare sulla sicurezza degli utenti, sulla gestione della privacy, e, in particolare, sulla “egemonia tecnologica” che potrebbe crearsi. E tali ragionamenti non possono essere rimandati dopo l’introduzione del Metaverso, perché anche il suo sviluppo e la sua realizzazione devono essere predisposti e programmati by default e by design proprio nella fase proprio nella fase di progettazione.

I rischi del Metaverso sono reali: si tratta ad esempio della soppressione o diminuzione della capacità di autodeterminazione degli individui, a vantaggio della formattazione su un unico standard dominante per la costruzione di ulteriori mercati. La prevalenza della realtà virtuale potrebbe facilmente condurre ad “un nuovo assalto silente alla vulnerabilità umana esposta alla modulazione comportamentale degli utenti/consumatori, aprendo a diverse questioni di giustizia sociale, di mercificazione dei dati personali e pratiche predatorie sulla privacy” [7].

Secondo Carr[8], la proliferazione di oggetti, macchine ed elettrodomestici in rete nelle nostre case e nei luoghi di lavoro ci sta immergendo ancora di più in un ambiente computerizzato progettato per rispondere automaticamente ai nostri bisogni: “godiamo di molti benefici dalla nostra esistenza sempre più mediata. Compiti e attività che una volta erano difficili o richiedevano tempo sono diventati più facili, richiedendo meno sforzo e pensiero. Quello che rischiamo di perdere è l’aspetto personale e il senso di appagamento e appartenenza che viene dall’agire con talento e intenzionalità”.

Seguendo questa logica, nel momento in cui si trasferisce il potere di effettuare scelte ai computer e ai software, si comincia anche a cedere il controllo sui propri desideri e decisioni, ad “esternalizzare”, come sostengono Frischmann e Selinger, la responsabilità di valutazioni e giudizi intimi e personali ai programmatori e alle aziende che li impiegano. Cedendo tali scelte ad estranei, ci si presta inevitabilmente alla manipolazione.

Le possibilità di aumentare e affinare le tecniche e le modalità di profilazione aumenterebbero consentendo lo sviluppo di strategie di approfondita conoscenza degli utenti, di pianificazione delle loro scelte sulla base della loro posizione geografica, dei loro interessi, delle loro abitudini e, come dice Calderini, della loro esperienza emotiva[9]

Metaverso e metadati: il ruolo del Regolamento europeo sull’IA

I metadati, infatti, sono in grado di rivelare identità, posizione, età, preferenze di acquisto, amici, familiari, film preferiti, viaggi, vacanze, lavoro, ma anche dati particolari come i dati biometrici (il riconoscimento dell’audio, dell’iride, dell’impronta digitale) raccolti attraversi i dispositivi utilizzati e/o indossati.

Come per tutte le tecnologie della comunicazione di massa infatti comuni standard tecnologici sono essenziali per la diffusione e l’adozione del Metaverso[10].

E qui può venire in sostegno la già citata proposta di Regolamento europeo sull’IA. Già da tale bozza, si nota l’attenzione posta dal legislatore europeo sull’esigenza di garantire il corretto bilanciamento tra la moderna tecnologia, necessaria per una corretta implementazione anche delle tecniche di protezione dati e la privacy [11].

Il nuovo regolamento si applicherà, se verrà approvato, ai fornitori che immettono sul mercato o mettono in servizio sistemi di intelligenza artificiale, sia se tali fornitori siano stabiliti nell’Unione Europea, sia se si trovino in un paese terzo ma il sistema viene utilizzato nell’UE.

La Commissione adotta un approccio basato sul rischio distinguendo tra rischio inaccettabile, alto rischio, rischio limitato e rischio minimo.

Nella categoria dei sistemi di intelligenza artificiale a rischio inaccettabile troviamo i sistemi d’intelligenza artificiale considerati come una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti di persone. Il rischio è ritenuto inaccettabile rischio soprattutto quando i sistemi o le applicazioni manipolano il comportamento umano per influenzare il libero arbitrio dell’utente e che potrebbe portare a danni psicologici o fisici. Tali sistemi sono pertanto vietati.

Nella categoria dei sistemi ad alto rischio sono compresi i sistemi che includono tecnologie utilizzate nei settori che necessitano di maggiore protezione, come l’istruzione, le infrastrutture critiche, gestione del lavoro, componenti di sicurezza di prodotti, forze dell’ordine in caso d’interferenza con i diritti fondamentali delle persone, o l’asilo e gestione del controllo di frontiera. Tali sistemi sono consentiti, ma sono soggetti a requisiti speciali, a valutazione di conformità, ad un’adeguata valutazione e mitigazione del rischio, e a stringenti requisiti di trasparenza e informazione per l’utente.

Per i sistemi a rischio limitato e rischio minimo sono previsti invece normali obblighi di trasparenza e di informazione degli utenti che siano resi consapevoli del fatto che stanno interagendo con una macchina in modo da poter assumere una decisione informata su continuare l’utilizzo o meno.

L’ampia definizione dei sistemi d’IA contenuta nella proposta[12] garantisce che il regolamento avrà un impatto significativo in tutti i settori, ed in particolare in quelli che vogliono avere successo con il Metaverso[13]. Essi dovranno tener conto, infatti, che sono vietate le pratiche di intelligenza artificiale dirette a:

  • l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
  • l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico.

La concentrazione di potere che arriva dai dati

Ma la manipolazione non è il solo rischio del Metaverso. E come già ampiamente previsto da Rocca più di tre anni fa, “non c’è ancora nessuna normativa antitrust, non c’è nessun provvedimento contro l’abuso di posizione dominante, non c’è nessuna tutela della concorrenza e dell’innovazione” [14]. Ed in effetti è ancora parzialmente così.

Le imprese che operano in un ambiente concorrenziale hanno avuto ed hanno tuttora bisogno di avere accesso a grandi e diversi insiemi di dati, anche personali, per sopravvivere[15], riportando l’attenzione sulla dicotomia tra il diritto al trattamento, inteso come un aspetto della libertà di iniziativa economica, e quello alla riservatezza con relativo e connesso problema della necessità del consenso espresso o della sufficienza della possibilità di esercitare il diritto all’opposizione all’uso dei propri dati personali (c.d. opt-out).

Secondo Crea[16] risulterebbe infatti opportuna se non necessaria una linea di protezione che, anche in campo economico, “sia garantista dei consumatori in misura tale da subordinare alla loro esplicita e libera autorizzazione qualunque operazione dell’impresa che possa eccedere quelle minime necessarie per il concreto svolgimento del rapporto di scambio”. Ed in effetti tale necessità si ritrova anche nella voce di chi si occupa dell’analisi del comportamento del consumatore, con particolare riferimento alla attuale fase economico-sociale in cui i dati hanno assunto i connotati di una vera e propria risorsa produttiva e il loro trattamento è diventato parte del processo produttivo.

Il possesso e il controllo di una grande massa di dati personali diventa pertanto uno dei parametri di valutazione del potere degli operatori del mercato[17]. Addirittura, la grandissima disponibilità di informazioni sulle scelte dei consumatori e degli utenti di un servizio rende molto elevato in termini di capacità e di tempo il potere di mercato degli operatori digitali [18].

Anche nell’indagine conoscitiva dell’ Autorità garante della concorrenza e del mercato sui big data si legge che l’applicazione della normativa sulla protezione dei dati personali e la strumentazione propria della tutela del consumatore possono offrire un contributo importante per la riduzione dell’asimmetria informativa esistente, garantendo che gli utenti ricevano un’adeguata informazione circa le finalità della raccolta e dell’utilizzo dei loro dati e siano posti nella condizione di esercitare consapevolmente ed effettivamente le proprie scelte di consumo. La raccolta e soprattutto l’utilizzo di dati personali assumono interesse anche nella prospettiva del diritto della concorrenza nella misura in cui i dati si configurano come “beni economici” idonei a generare un profitto per le imprese [19].

Conclusioni

Lo “slancio tecnologico”, come lo ha definito lo storico Thomas Hughes, è una forza potente. Può trascinarci senza cervello nella sua scia. Contrastare questa forza è possibile, ma richiede una consapevole accettazione di responsabilità su come le tecnologie sono progettate e utilizzate. Se non accettiamo questa responsabilità, rischiamo di diventare mezzi per i fini di altri.

Potrebbe essere quindi utile modificare il modello di business dei social network, quello per cui in cambio della gratuità dei servizi offerti si possano ottenere dagli utenti le informazioni personali, sia quelle consegnate liberamente sia quelle dedotte dai loro comportamenti e stabilire delle regole chiare e semplici. Ma serve soprattutto la piena consapevolezza da parte del soggetto interessato che alla accettazione di determinati comportamenti conseguirà fisiologicamente una perdita di alcune sue libertà o almeno una loro “dequotazione”.

A nostro avviso dunque accanto alla regolamentazione indispensabile, è necessario in via prioritaria costruire una società consapevole e formata su questi temi, in un momento in cui tra l’altro sono ancora calde le diverse accuse a Facebook (oggi Meta) che vanno dalle rivelazioni del Wall Street Journal sui possibili impatti negativi delle sue piattaforme (compresa Instagram) sulla salute mentale delle adolescenti, allo scandalo Cambridge Analytica sino alla causa nel Regno Unito e negli Stati Uniti per la presunta diffusione dell’incitamento all’odio contro una minoranza perseguitata dal regime militare al potere in Myanmar. Per citarne alcune.

Note

  1. Daniel Miller, “Metaverso, la linea completa al metaverso e agli nft”, Edizione Kindle.
  2. Neal Williams in “Incredibile Metaverse: prepararsi per il prossimo internet”, Kindle.
  3. Arcangelo Rociola, “Google: Soro, con acquisizione Fitbit pericolosa concentrazione di dati”, Agi, 1 novembre 2019 https://www.agi.it/economia/google_fitbit-6466269/news/2019-11-01/
  4. Luca Bianco, “Smart Glasses: il ritorno”, Huffington Post, 20 settembre 2021 https://www.huffingtonpost.it/entry/smart-glasses-il-ritorno-ma-ce-un-problema-di-privacy_it_614899c3e4b0efa77f831388
  5. Di Ruggiero Corcella, “Dispositivi indossabili: che fine fanno le informazioni sanitarie raccolte?”, Corriere Salute, 4 marzo 2021 https://www.corriere.it/salute/ehealth/21_marzo_06/dispositivi-indossabili-che-fine-fanno-informazioni-sanitarie-raccolte-a6d3f73e-76aa-11eb-843a-1237b4657d5e.shtml
  6. Luca Pierattini, “Cos’è il metaverso e perché è considerato il futuro di Internet (e del mondo)”, in https://www.gqitalia.it/tech/article/metaverso-cose-come-funziona.
  7. Barbara Calderini, “Distopica o no, la visione di Neal Stephenson di un enorme ambiente virtuale parallelo al mondo fisico è arrivata e sta generando molti interrogativi: siamo preparati al metaverso? Chi lo governerà? Quali sono i rischi in serbo? In questo momento, però, abbiamo più domande che risposte”, https://www.agendadigitale.eu/sicurezza/privacy/metaverso-e-questo-il-futuro-che-ci-aspetta-tutti-gli-interrogativi-a-cui-dare-risposta/, 22 novembre 2021.
  8. Cfr. Prefazione a Brett Frischmann e Evan Selinger, “Re-engineering Humanity”, Cambridge University Press, 2018).
  9. Barbara Calderini, cit.
  10. Rabindra Ratan e Yiming Lei, “Che cos’è il metaverso e perché Facebook ha cambiato nome”, 7 Novembre 2021, in https://www.galileonet.it/metaverso-perche-facebook-cambiato-nome/
  11. Proposta di Regolamento del parlamento europeo e del consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21.4.2021, COM (2021) 206 final, https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52021PC0206&from=IT
  12. Cfr. art. 3 n. 1 Definizioni: per sistema di intelligenza artificiale (sistema di IA) si intende “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.L’Allegato I a sua volta rubricato Tecniche e approcci di intelligenza artificiale di cui all’articolo 3, punto 1) prevede:
    1. Approcci di apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo, con utilizzo di un’ampia gamma di metodi, tra cui l’apprendimento profondo (deep learning);
    2. approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;
    3. approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.
  13. Davies, Mark J., op.cit.
  14. Christian Rocca, “Chiudete internet. Una modesta proposta”, 2019 Marsilio.
  15. Giovanni Crea, “Il trattamento dei dati personali nell’analisi del comportamento del consumatore”, in Diritto, Economia e Tecnologie della Privacy, 2010, pg. 81 e ss.
  16. Giovanni Crea, op.cit.
  17. Giovanni Crea, “Profili antitrust del consenso non libero al trattamento di dati personali”, in Luca Bolognini (a cura di), “Privacy e libero mercato digitale”, Giuffrè, Milano, 2021, pg. 22.
  18. Provvedimento n. 26597, WhatsApp-trasferimento dati a Facebook, Autorità garante della concorrenza e del mercato, 11 maggio 2017.
  19. “Indagine conoscitiva sui big data”, Autorità garante della concorrenza e del mercato, 10 febbraio 2020, pg. 83 s.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati