l'approfondimento

La tecnologia si sta prendendo le nostre vite: ci serve una nuova educazione

Siamo così abituati a tecnologie che evolvono rapidamente di generazione in generazione, da sottovalutarne aspetti etici e rilevanza educativa. Perciò, l’educazione alla vita nel XXI secolo non può fare a meno di creare consapevolezza, personale e collettiva, sull’impatto che la “grande accelerazione” ha sulle nostre vite

Pubblicato il 04 Apr 2023

Mirta Michilli

direttrice generale della Fondazione Mondo Digitale

Alfonso Molina

personal chair in Technology Strategy all’Università di Edimburgo e direttore scientifico della Fondazione Mondo Digitale

pa digitale 2026

Più che in qualsiasi altra epoca siamo chiamati a rispondere a molteplici sfide cruciali per il benessere dell’umanità. Sono in gioco eventi sistemici che influenzano profondamente la vita personale e sociale. Mentre celebriamo il trionfo dell’intelligenza umana, per la capacità di risolvere problemi e innalzare la qualità della vita di milioni di persone sul pianeta, ci rendiamo conto che una parte importante della popolazione rimane esclusa dai benefici generati dal progresso, mentre l’impatto dello sviluppo accelerato crea non solo opportunità ma anche nuove minacce per tutte le specie, compresa quella umana.

Un’AI etica è responsabilità di tutti: le basi per realizzarla

Un successo autentico dell’intelligenza umana dovrebbe essere al servizio di un umanesimo olistico ed ecologico, che pone persone, comunità, società e pianeta al centro di uno sviluppo sostenibile e inclusivo. Basti pensare ai problemi dell’ambiente, alle migrazioni, al terrorismo, alla povertà, alla crescente disuguaglianza, al vuoto esistenziale e alla solitudine in cui vivono tante persone estranee alla società dei consumi. Zygmunt Bauman ci ha messo in guardia sulle derive della società dei consumatori, che ci lascia perennemente insoddisfatti e spiritualmente vuoti. Il sistema mondiale non dà sicurezza, al contrario, alimenta la paura, complici le crisi ricorrenti. Il sociologo tedesco Ulrick Beck, scomparso nel 2015, parla di società del rischio. Nessuno è in grado di prevedere con certezza come saranno la vita, la società e il pianeta tra molti decenni.

Computer sempre più potenti, più piccoli e pervasivi

Lo sviluppo esponenziale delle tecnologie dell’informazione e della comunicazione è ben interpretato dalla legge di Moore, secondo la quale il numero di transistor in un microchip raddoppierebbe ogni due anni. Non è una legge fisica, ma una profezia che si auto avvera, resa possibile dagli investimenti strategici di un’industria che crea e ricrea le condizioni tecnologiche per la traiettoria esponenziale seguita dalla legge. La conseguenza è una straordinaria miniaturizzazione e una massiccia crescita e riduzione dei costi della potenza di calcolo.

Il primo microprocessore con 2.300 transistor fu creato da Intel nel 1971. Cinquant’anni dopo, nel 2021, il microprocessore Apple M1 Max conta 57 miliardi di transistor, con un incremento di circa 25 milioni di volte e una potenza di calcolo di oltre 10 teraflop. Nel 2018 l’Università del Michigan ha presentato la seconda versione del suo Micro Mote, più piccolo di un granello di sale. All’estremo opposto, i super computer occupano grandi quantità di spazio e sono costosi, ma offrono le massime prestazioni. Nel 2022 un super computer, denominato Frontier, costruito da Hewlett Packard Enterprise per l’Oak Ridge National Laboratory del US Department of Energy, ha raggiunto il primato con una velocita di calcolo di 1.1 exaflop.[1] Un ulteriore passo avanti nella scala delle prestazioni di calcolo è rappresentato dai recenti computer quantistici che operano con i qubit invece che con gli stati binari. In Cina “un sistema chiamato Jiuzhang ha prodotto in pochi minuti risultati che il terzo supercomputer più potente del mondo avrebbe impiegato più di 2 miliardi di anni di sforzi”[2]. I computer quantistici devono ancora diffondersi sul mercato, ma l’IBM Insitute for Quantum Value afferma che ci troviamo già nella Quantum Decade[3].

Il diluvio di dati e la necessità di competenze “firtuali”

All’aumento della miniaturizzazione e della potenza dei computer si affianca il fenomeno dei big data, o “diluvio di dati”, reso possibile dall’enorme e convergente crescita delle capacità delle tecnologie di comunicazione, in particolare di Internet. A metà degli anni Novanta sono nati il browser Mosaic (1994) e il motore di ricerca Google (1996), con un traffico Internet di circa 0,2 Petabyte/mese. Alla fine del secolo, questo traffico esponenziale era aumentato di 400 volte, raggiungendo gli 80 PB/Mo. L’arrivo del nuovo millennio ha visto la rapida evoluzione e diffusione di Internet, che si è trasformata da “finestra” per la ricerca di informazioni in un ricco spazio per l’interazione sociale multimediale e, di fatto, in una nuova economia, visto che tutto è potenzialmente collegabile alla rete. La società di consulenza IDC stima che la quantità di dati generati dalla “datasfera globale” crescerà fino a 175 zettabyte nel 2025, rispetto a meno di 20 zettabyte nel 2015 [Reinsel et al., 2018, p.6].

La crescita esponenziale dei dati deriva dalla connessione e dalle interazioni tra una quantità in continua crescita di dispositivi chiamati Internet delle cose (IoT) e Internet di tutto (IoE), se si includono le persone. Grazie all’IoT, l’informatizzazione o “smartness” sta penetrando ovunque, nei veicoli, nelle case, nelle fabbriche, negli ospedali, nelle città e nei nostri stessi corpi. Secondo Cisco entro il 2023 sono previsti quasi 30 miliardi di dispositivi in rete (erano 18,4 miliardi nel 2018). Il 66% della popolazione globale, ovvero 5,3 miliardi di persone, avrà accesso a Internet. Per il 2050 la società di consulenza Gartner prevede oltre 100 miliardi di dispositivi collegati in rete (Capra et al., 2019).

Le implicazioni dei big data nell’istruzione sono cruciali. Non a caso Howard Gardner ha identificato tra le cinque menti fondamentali la mente sintetizzante, con capacità di raccogliere informazioni da fonti diverse, comprenderle e valutarle in modo obiettivo, e sintetizzarle per comunicarle agli altri (Gardner 2006). Il filosofo Floridi ha usato il termine infosfera per riferirsi a questo universo digitale online in espansione che si mescola con le realtà analogiche offline delle persone per creare la nuova vita onlife (Floridi, 2014).

Why we need ethics in AI

Why we need ethics in AI

Guarda questo video su YouTube

Nel 2005 ho coniato il termine Phyrtual, proprio per rendere conto della crescente integrazione tra la dimensione fisica e quella virtuale che stava emergendo nelle nostre vite. Le implicazioni della firtualità sono sconvolgenti non solo perché il nostro comportamento sui social media può avere un impatto sulla nostra vita reale e viceversa, ma anche perché è emersa una panoplia di nuovi fenomeni con conseguenze contraddittorie sul modo in cui viviamo le nostre vite, dalle relazioni alle organizzazioni. Le opportunità sono enormi, soprattutto per coloro che imparano a vivere in modo virtuale e sono in grado di affrontare con successo le false realtà che emergono da fenomeni ampiamente diffusi come fake news e deepfake e altri fenomeni più sinistri come cyberbullismo, hacking, trolling, doxing, swatting. L’avvertimento epistemologico di Edgar Morin, sull’importanza cruciale dell’errore e dell’illusione nel tentativo di comprendere il mondo, non è mai stato così rilevante. Le persone si sentono impotenti nel contrastare la loro esistenza atomizzata nel mondo virtuale e difficilmente possono evitare l’ampia appropriazione delle loro informazioni comportamentali, comprese le intenzioni e le azioni, con conseguente impatto sulla loro vita nel mondo virtuale. Un passo importante per regolamentare la vita nell’infosfera è il General Data Protection Regulation (GDPR), anche se è necessario fare di più per garantire i potenziali benefici del mondo virtuale, soprattutto sul piano educativo e formativo. La scuola deve preparare gli studenti non solo a gestire efficacemente il diluvio di dati, già presenti in molteplici forme, ma anche a interpretare le trasformazioni in un contesto di vita sempre più complesso e contraddittorio, pieno di opportunità, rischi e sfide che riguardano una posta in gioco elevata: la libertà delle persone, la privacy, i potenziali vantaggi economici, l’empowerment e, in ultima analisi, l’auto realizzazione nel corso della loro vita.

Altri fenomeni tecnologici di forte impatto sullo sviluppo dell’umanità

Collegati all’informatizzazione ci sono altri fenomeni tecnologici dal potenziale impatto colossale sullo sviluppo dell’umanità come l’abbiamo conosciuta finora: intelligenza artificiale, robotica, singolarità, neuroscienze e genomica. Ciascuno di essi solleva sfide evolutive ed etiche che l’umanità fatica ad affrontare, soprattutto perché la maggior parte delle persone ha scarse conoscenze e poteri per essere protagonista. Un’altra grande sfida per l’educazione.

Intelligenza artificiale e robotica

L’intelligenza artificiale (AI) è una tecnologia centrale nell’infosfera, perché per trarre vantaggio dai big data servono capacità algoritmiche e viceversa. Il fatto che l’IA possa prosperare solo nelle dimensioni crescenti dei big data solleva molte preoccupazioni, dalla privacy al controllo, che alimentano visioni utopiche o distopiche. “L’IA potrebbe sviluppare una volontà propria”, ha dichiarato Stephen Hawking al Web Summit 2017[4]. “L’ascesa dell’IA potrebbe essere la cosa peggiore o migliore che sia accaduta per l’umanità” […] “Forse dovremmo tutti fermarci per un momento e concentrarci non solo sul rendere la nostra IA migliore e di maggior successo, ma anche per il beneficio dell’umanità […]”. Parole che difficilmente si applicano ad un’altra tecnologia della storia, ma si applicano all’IA, e, per estensione, a tutti i dispositivi e le macchine guidate dall’IA, come i robot autonomi.

In linea con lo status di tecnologia esponenziale, intelligenza artificiale e apprendimento automatico stanno progredendo a grande velocità. Le origini delle reti neurali risalgono agli anni ’60, ma all’epoca la tecnologia informatica non era sufficientemente potente per realizzarne il potenziale. Ora gli algoritmi di deep learning hanno imparato ad apprendere senza l’intervento dell’addestramento umano e sono sempre più precisi nel riconoscimento di modelli e insiemi di dati. Tra le ultime grandi conquiste di Deep Mind c’è la risoluzione di uno dei principali problemi scientifici della biologia umana: la sfida, vecchia di 50 anni, di scoprire i misteri del ripiegamento delle proteine. Passando dalla struttura delle proteine alle neuroscienze, nel marzo 2020 la rivista New Scientist ha pubblicato un articolo intitolato “Mind-reading AI turns thoughts into words using a brain implant” (L’intelligenza artificiale può tradurre accuratamente i pensieri in frasi, almeno per un vocabolario limitato di 250 parole), spiegando che “il sistema potrebbe portarci un passo più vicino a restituire la parola alle persone che l’hanno persa a causa di una paralisi” (Murugesu J. A, 2020). Ma una tecnologia che “legge la mente” potrebbe anche avere usi discutibili dal punto di vista etico.

Gli algoritmi di IA non sono neutrali o scientificamente oggettivi, poiché sono sviluppati da esseri umani e tendono a conservare pregiudizi, preconcetti e contraddizioni nascosti nelle persone. Il premio Nobel Daniel Kahneman ha individuato i pregiudizi cognitivi alla base delle decisioni sbagliate e, con i colleghi Sybony e Sunstein, ha studiato il rumore, un altro difetto umano che spiega la variabilità di giudizi che dovrebbero essere identici. Ci sono altri pregiudizi, razziali, sessuali o di età associati alla paura, al disgusto e all’indifferenza, che vivono nel lato oscuro della “nostra ombra”, come ha rivelato Carl Gustav Jung. Sapevamo di essere fallibili e inclini all’errore, ma dobbiamo imparare molto di più sull’unità degli aspetti evolutivi, neurali, psicologici, sociali e culturali dello sviluppo umano prima di abbracciare incondizionatamente l’intelligenza artificiale.

Gli sforzi internazionali per affrontare l’etica dell’IA

La crescente consapevolezza dell’elevato impatto sociale dell’IA ha spinto governi e organizzazioni a elaborare linee guida etiche per regolarne lo sviluppo e l’uso. La strada da seguire è quella dell’IA affidabile e incentrata sull’uomo, proposta da due rapporti del 2019.

Il primo è “Ethics Guidelines for Trustworthy AI” (Linee guida etiche per un’IA degna di fiducia), prodotto da un gruppo di 52 esperti di alto livello per lo più provenienti da università e industria. Il secondo è “Building Trust in Human-Centric Artificial intelligence” (Costruire la fiducia nell’intelligenza artificiale incentrata sull’uomo), una comunicazione della Commissione europea al Parlamento europeo e altre istituzioni. Sempre della Commissione europea è anche il Libro bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia (Commissione europea, 2020).

Il messaggio chiave è che lo sviluppo, l’impiego, l’uso e il monitoraggio dell’IA devono mettere al centro le persone per meritare la loro fiducia. Le applicazioni di IA devono responsabilizzare i cittadini, rispettando i loro diritti fondamentali e la loro diversità in termini di genere, origine etnica, religione o credo, disabilità. Centralità umana significa anche considerazione per l’ambiente naturale e per gli altri esseri viventi che compongono l’ecosistema umano, significa sostenibilità per la prosperità delle generazioni a venire.

Il concetto di IA affidabile

Il concetto di IA affidabile implica tre componenti: rispetto della legge, rispetto dei principi etici e robustezza, che si traducono in sette requisiti: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale, responsabilità.

L’approccio dell’Unione europea chiarisce in modo inequivocabile che la tecnologia dell’IA richiede una forte attenzione e una guida etica, dato il suo potenziale impatto senza precedenti sullo sviluppo umano, sociale ed ecologico.

L’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha assunto una posizione simile, riconoscendo il duplice potenziale della tecnologia di apportare benefici e danni allo sviluppo umano ed ecologico. Un gruppo di 50 esperti ha elaborato cinque principi basati sui valori e cinque raccomandazioni per i decisori pubblici che promuovono un’IA innovativa, affidabile e rispettosa dei diritti umani e dei valori democratici (OCSE, 2019a). La somiglianza con l’approccio europeo dimostra una chiara convergenza di pensiero sulla sfida posta dall’IA e sulle risposte necessarie per affrontarla, ma come realizzarla? Si tratta di linee guide, senza alcun obbligo di adozione. Il difetto di questo approccio è che lascia la maggior parte dell’umanità fuori dalla possibilità di giocare un ruolo nel plasmare il proprio futuro, mentre rendere le persone in grado di affrontare le grandi questioni sollevate dall’IA dovrebbe essere una delle principali priorità. La sfida è trasformare le proposte, elaborate da un gruppo limitato di esperti, in un processo di apprendimento sociale, pervadendo i sistemi educativi e portando a un’ampia adozione negli anni a venire.

In questa direzione si sta muovendo l’Unesco, con il primo accordo globale sull’etica dell’intelligenza artificiale, presentato a novembre 2021, che solleva grandi preoccupazioni etiche, come i pregiudizi incorporati che possono portare a discriminazioni, disuguaglianze, divari digitali, esclusione e una minaccia alla diversità culturale, sociale e biologica e ai divari sociali o economici. E invita i paesi membri a promuovere programmi di sensibilizzazione generale sugli sviluppi dell’IA, accessibili anche a gruppi non tecnici, una sfida urgente per il mondo dell’istruzione.

Un’organizzazione che educa le imprese sui temi dell’IA è il Global Future Council (GFC) del World Economic Forum, che propone lo sviluppo di una carta etica, per definire significato di equità, strategia e processo per attuarla, a partire dai valori fondamentali delle organizzazioni.

Alcune iniziative politiche sull’IA, come lo sviluppo di una “carta dei diritti” promossa dall’Ufficio per la Scienza e la Tecnologia della Casa Bianca, intendono ottenere i contributi di un’ampia gamma di soggetti interessati, tra cui la società civile e le comunità (Lander e Nelson, 2021). In ottobre 2022, questo processo ha prodotto il documento “Modello per una Carta dei diritti dell’IA. Far funzionare i sistemi automatizzati per il popolo americano”.[5] Iniziative di questo tipo, se perseguite seriamente, possono offrire un’opportunità per la creazione di una consapevolezza diffusa sulle questioni chiave della sfida etica dell’IA. Purtroppo, nella sua prima pagina, il documento mette in chiaro che “”non è vincolante e non costituisce la politica del governo degli Stati Uniti”.

In questo sforzo, non dimentichiamo che le tecnologie dell’IA stanno già entrando nel campo dell’educazione, consentendo una didattica, un insegnamento e un apprendimento innovativi, in un contesto di cambiamento che vede anche l’introduzione di molte altre tecnologie digitali. La raccomandazione sull’etica dell’IA è una risposta importante alla necessità di regole e norme sull’intelligenza artificiale nel territorio del percorso umano. Se saranno effettivamente rispettate è un’altra questione, come accade, ad esempio, per un’altra area critica dell’IA, i robot autonomi che sempre più spesso prendono decisioni con importanti conseguenze etiche.

Robot autonomi basati sull’IA

La robotica è pervasiva. Le sue applicazioni attraversano tutti gli ambiti della società, dalla salute all’intrattenimento. Si trovano a terra, in aria e in mare e nei luoghi pericolosi per l’uomo, come l’esplorazione dello spazio e gli ambienti radioattivi. Anche la categoria degli umanoidi si sta evolvendo verso applicazioni forti di AI, con l’aspirazione di robot dotati di capacità intellettuali uguali o simili a quelle umane.

Da un secolo i robot hanno scatenato l’immaginazione degli scrittori di fantascienza e sollevato preoccupazioni etiche. Circa 80 anni fa Isaac Asimov ha formulato le “Tre leggi della robotica”, che sono state ampiamente dibattute. Le implicazioni etiche della prima legge, ad esempio, sono in diretta contraddizione con i cosiddetti “robot assassini” o “sistemi di armi autonome letali”, che prendono le loro decisioni guidati da un software di intelligenza artificiale. Human Rights Watch (HRW) e la Convenzione sulle armi convenzionali (CCW) stanno lavorando a un trattato e chiedono “la negoziazione di uno strumento giuridicamente vincolante per vietare o limitare i sistemi di armi autonome letali”. Accordo che è molto difficile da raggiugere. È facile intuire la portata delle sfide etiche in gioco e, ancora una volta, la nostra educazione è chiamata a preparare futuri cittadini consapevoli e capaci di diventare protagonisti delle decisioni e delle azioni che inevitabilmente coinvolgeranno l’umanità nel presente e nei prossimi decenni.

Il bisogno di un’educazione per il viaggio della vita nel XXI secolo

Viviamo nell’era della grande accelerazione, dell’esponenzialità, della singolarità (Ray Kurzweil), dell’evoluzione volitiva (Edward Wilson), dell’antropocene (Paul Crutzen).

Secondo Ray Kurzweil, scienziato e futurista americano, la “singolarità” tecnologica si verificherà quando l’intelligenza artificiale avrà raggiunto o superato l’intelligenza umana. L’evento dovrebbe verificarsi verso la fine della prima metà di questo secolo. Può darsi che arrivi più tardi, se qualcosa di imprevedibile (un cigno nero) non costringa a un cambiamento fondamentale delle tendenze esponenziali che hanno dominato l’informatizzazione fin dalla nascita della tecnologia integrata dei semiconduttori. La singolarità sembra però una caratteristica fondamentale del nostro tempo, perché promette di superare l’intelligenza umana a livelli inimmaginabili.

Ci stiamo ormai abituando all’idea di tecnologie che evolvono rapidamente di generazione in generazione, come gli smartphone. Ma l’educazione alla vita nel XXI secolo non può fare a meno di creare consapevolezza sulla grande accelerazione, iniziata dopo la Seconda guerra mondiale, e rafforzata negli ultimi due decenni con le varie generazioni di Internet e dei social media.

Conclusioni

Gli affascinanti sviluppi tecnologici pongono sfide etiche enormi. Basti pensare ai progressi nelle neuroscienze, nella genetica, e alle implicazioni nel percorso di vita dei giovani, persino difficili da comprendere. Ci mostrano però con chiarezza la portata delle sfide e delle opportunità che il “viaggio umano” deve affrontare nel territorio del XXI secolo e l’importanza di un’educazione inclusiva di qualità in grado di dotare i “viaggiatori” di questo secolo di consapevolezza di sé, capacità, atteggiamenti e valori per svolgere il ruolo di protagonisti in percorsi individuali e collettivi verso l’autorealizzazione e un mondo migliore.

Bibliografia

  • Capra, M. et al. (2019). Edge Computing: A Survey on the Hardware Requirements in the Internet of Things World. Future Internet 11(4):1–25.
  • Commissione europea (2019). Ethics guidelines for trustworthy AI.
  • Commisione europea (2019). Building Trust in Human-Centric Artificial Intelligence. COM 2019) 168 Final, April 8.
  • Commisione europea (2021). European Group on Ethics in Science and Technology (EGE). 2021. Ethics of Genome Editing. Bruxelles.
  • Commsione europea (2020). White Paper on Artificial Intelligence. A European Approach to Excellence and Trust. COM (2020) 65 Final, February 19.
  • Crutzen P., (2005). Benvenuti nell’Antropocene! Milano. Mondadori.
  • Floridi, L. (2014). The Fourth Revolution. How the Infosphere is Reshaping Human Reality. Oxford. Oxford University Press.
  • Gardner, H. (2006). Five Minds for the Future. Boston, Mass. Harvard Businesss School Press.
  • Jumper, J. et al. (2021). Highly Accurate Protein Structure Prediction with AlphaFold. Nature 596 (7873): 583–89.
  • Jung, C. (1968). Aion. Researches into the Phenomenology of the Self. Princeton NJ. Princeton University Press.
  • Kahneman, D. (2011). Thinking, Fast and Slow. New York: Farrar, Straus and Giroux.
  • Kahneman, D., Sibony O, Sunstein C. (2021). Noise. A Flaw in Human Judgement. Londra.
  • Kaiser, J. (2019). Update: House Spending Panel Restores U.S. Ban on Gene-Edited Babies. Science, June 4.
  • Kurzweil, R. (2006). The Singularity is Near. When Humans Transcend Biology. Londra. Penguin Books.
  • Lander, E., Nelson, A. (2021). Americans Need a Bill of Rights for an AI-Powered World. Wired, October 8.
  • Morin, E. (2015). Insegnare a vivere. Manifesto per cambiare l’educazione. Milano. Raffaello Cortina Editore.
  • Murugesu J. A. (2020). Mind-reading AI turns thoughts into words using a brain implant. Nature Neuroscience, DOI: 10.1038/s41593-020-0608-8
  • OECD (2017). Neurotechnology and Society. Strengthening Responsible Innovation in Brain Science. 46. Parigi.
  • OECD (2019a). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449.
  • OECD (2019b). Recommendations of the Council on Responsible Innovation on Neurotechnoloy. Retrieved (https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0457).
  • OECD (2022). Recommendation of the Council on Responsible Innovation in Neurotechnology. Parigi.
  • Reinsel, D., Gantz J., and Rydning J. (2018). The Digitization of the World from Edge to Core, IDC White Paper
  • Schwartz, P. (2020). Ethics of Gene Therapy in the Military. Promise and Potential Problems. Molecular Therapy 28(4):987–88.
  • Tennison, M. N., Moreno J. D. (2012). Neuroscience, Ethics, and National Security: The State of the Art. PLoS Biology 10(3):3–6.
  • Unesco (2015). International Bioethics Committee. Report of the IBC on Updating Its Reflection on the Human Genome and Human Rights. SHS/YES/IBC-22/15/2 REV.2. Paris.
  • UNESCO (2021). Reimagining Our Futures Together. A New Social Contract for Education, Report from the International Commission on the Futures of Education, Parigi.
  • UNESCO (2021). Social and Human Sciences Commission. Draft Text of the Recommendation of the Ethics of Artificial Intelligence. Parigi.
  • WEF (2021a). A Holistic Guide to Approaching AI Fairness Education in Organizations. White Paper. Ginevra.
  • WEF (2021b). AI Regulation through an Intergenerational Lens. Briefing Paper. October. Ginevra.
  1. https://www.hpe.com/us/en/newsroom/press-release/2022/05/hewlett-packard-enterprise-ushers-in-new-era-with-worlds-first-and-fastest-exascale-supercomputer-frontier-for-the-us-department-of-energys-oak-ridge-national-laboratory.html
  2. Wired (2020) https://www.wired.com/story/china-stakes-claim-quantum-supremacy/
  3. https://www.ibm.com/downloads/cas/J25G35OK
  4. Canale YouTube Web Summit, https://youtu.be/H41Zk1GrdRg
  5. “Blueprint for an AI Bill of Rights. Making Automated Systems Work for the American People.” https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati