una sfida globale

L’IA ha mandato in crisi il concetto di “responsabilità”? Così i Governi affrontano il problema



Indirizzo copiato

Dove si posiziona il giusto equilibrio tra governance responsabile e rischio intelligente nel contesto dello sviluppo di tecnologie di intelligenza artificiale che hanno il potenziale per sbloccare il progresso umano? La sfida è globale, e immensa

Pubblicato il 14 giu 2023

Barbara Calderini

Legal Specialist – Data Protection Officer



intelligenze artificiali

Opacità, imprevedibilità, vulnerabilità, fallacia: sono tutte caratteristiche dei sistemi di apprendimento automatico che disorientano gli attuali modelli della responsabilità, in particolare quelli fondati sul criterio di imputazione della colpa.

Dove si posiziona, dunque, il giusto equilibrio tra governance responsabile e rischio intelligente nel contesto dello sviluppo di tecnologie di intelligenza artificiale che hanno il potenziale per sbloccare il progresso umano?

La difficoltà della risposta si annida sulla difficile comprensione dei processi in base ai quali viene assunta una determinata “decisione” e dunque un certo “comportamento”.

Regolamentare l’IA, un’esigenza ineludibile

Ovunque regolamentare gli strumenti e i sistemi avanzati di intelligenza artificiale appare un’esigenza ineludibile.

In gioco non solo relazioni tra governi, ma anche le diverse percezioni che i rispettivi cittadini hanno su temi come i diritti fondamentali e il rapporto col potere. I conflitti per la governance del web sono infatti diventati i nuovi spazi in cui il potere politico ed economico si fondono e si sviluppano.

E, d’altra parte, dato l’alto grado di turbolenza che caratterizza la nostra epoca, riconoscere i fattori chiave che determinano la buona salute dei diritti umani sul lungo periodo è quindi più importante che mai.

In tutto ciò la tecnologia si è ovviamente posizionata al centro della geopolitica globale.

L’IA generativa, come ChatGPT o Midjourney (che possono essere utilizzati per creare contenuti, tra cui audio, codice, immagini, testi e video), hanno già reso evidente il proprio potenziale di trasformazione per le economie e le società, sollevando al contempo enormi sfide di governance[1]. Pricewaterhouse Coopers ha stimato che il guadagno potenziale a livello mondiale derivante dal mercato dell’Intelligenza artificiale in termini di PIL sarà pari a quasi sedici trilioni di dollari entro il 2030. Lo studio realizzato da Joseph Briggs e Davesh Kodnani di Goldman Sachs ritiene che l’intelligenza artificiale porterà all’automazione di un quarto dei posti di lavoro negli Stati Uniti e nell’area euro. A rischio 300 milioni di posti di lavoro.

Il fermento intorno ai temi dell’IA è altissimo e, mentre le varie strategie normative e i discorsi politici si rivelano ancora semplicistici e vaghi, sta crescendo la consapevolezza sui rischi dell’intelligenza artificiale, man mano che gli usi dannosi o potenzialmente tali si moltiplicano, sostenuti o meglio non ostacolati dalla perdurante assenza di un adeguato quadro regolatorio globale e condiviso. Al tempo stesso permane anche un cauto ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed “etica” l’AI.

La questione della responsabilità dell’IA

È grande il dibattito giuridico, ancora aperto, che ruota attorno al tema della responsabilità delle applicazioni di intelligenza artificiale.

In due sentenze molto attese la Corte Suprema degli Stati Uniti ha appena stabilito che né Google e né Twitter[2] possono essere ritenuti responsabili ai sensi delle leggi antiterrorismo per aver ospitato contenuti pubblicati da gruppi terroristici. In modo particolare nello scenario legato al caso Gonzalez v. Google LLC era emersa la questione se la Sezione 230 del Decency Act proteggesse le piattaforme che utilizzano algoritmi per consigliare contenuti agli utenti.

In altri termini, se i prodotti di intelligenza artificiale generativa, i loro output, siano o meno protetti dallo scudo offerto dalla Sezione 230.

“Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi”. Così dispone le Sezione 230 del Communications Decency Act, la legge approvata dal Congresso nel 1996.

La Corte Suprema, deludendo le aspettative di molti, ha evitato di affrontare la questione legata a quella zona grigia di irresponsabilità in cui prosperano le grandi aziende tecnologiche, rimettendo di fatto la palla al Congresso da tempo impegnato[3] nella revisione della Sezione 230.

Ron Wyden e Chris Cox, redattori della specifica norma nel 1996, interrogati sul punto si sono dimostrati piuttosto convinti: “I chatbot AI non godranno dello scudo legale della tecnologia”.

E, comunque, appare sin d’ora molto discutibile che le protezioni della Sezione 230 si possano estendere all’IA generativa. Il dibattito sul punto si preannuncia infatti molto acceso. Se è vero che l’IA generativa , è pronta a trasformare il modo in cui i servizi online forniranno contenuti agli utenti, allora al fine di evitare un afflusso di azioni legali contro i servizi online, il Congresso dovrebbe forse espandere la Sezione 230 per proteggere i contenuti generati dall’intelligenza artificiale.

Evidentemente quando si tratta di contenuti generati dall’intelligenza artificiale, la questione diventa più complessa. Se un intermediario utilizza un algoritmo di intelligenza artificiale per generare contenuti, potrebbe esserci una responsabilità legale aggiuntiva associata all’uso dell’algoritmo stesso. Ad esempio, se l’algoritmo genera contenuti diffamatori o illegali.

Ad ogni modo, tra le tante posizioni, l’ostacolo che più di tutti avrà modo di limitare la revisione della Sezione 230 è sicuramente costituito dal Primo Emendamento della Costituzione americana (solo il potere statale e non i poteri privati è obbligato a rispettare i vincoli dettati dalla natura quasi sacrale del Primo Emendamento) e dal convinto richiamo che ad esso faranno i difensori delle libertà fondamentali e le stesse Big tech schierati al lato opposto.

È dunque palpabile la tensione a cui sono sottoposti gli attuali modelli di responsabilità, con particolare riferimento all’IA generativa.

La dottrina è divisa tra chi accoglie la possibilità di ridefinire lo status privatistico degli agenti digitali capaci di elaborare decisioni autonome e chi lo esclude tassativamente.

  • L’IA potrà mai rispondere dei danni che cagiona?
  • Sarebbe possibile assimilare le applicazioni di AI a un soggetto giuridico al quale rivolgersi per chiedere il ristoro di un danno?

Alcuni esperti e studiosi hanno proposto che le IA altamente autonome o sofisticate potrebbero essere riconosciute come “persone artificiali” e potrebbero essere dotate di diritti e responsabilità giuridica.

In Europa la sponda istituzionale è stata inizialmente offerta dal Parlamento europeo che con la Risoluzione del 16 febbraio 2017, aveva già invitato la Commissione a “creare uno status giuridico specifico per i robot a lungo termine, in modo che almeno i robot autonomi più sofisticati possano essere riconosciuti come persone elettroniche responsabili di riparare eventuali danni che possono causare, ed eventualmente applicare la personalità elettronica ai casi in cui i robot prendono decisioni autonome o interagiscono in altro modo con terze parti in modo indipendente”[4]. Ma gli esperti, per l’appunto, non mancarono di sollevare pesanti preoccupazioni e confutazioni che hanno voluto ribadire in una open letter indirizzata all’esecutivo europeo. Studiosi di intelligenza artificiale e robotica, leader del settore, esperti di diritto, medicina ed etica hanno ritenuto fosse fuorviante pensare all’introduzione, tanto in via analogica che attraverso riforme legislative, di un qualsiasi status giuridico degli agenti intelligenti: sia equiparabile a quello della persona naturale, titolare di diritti umani, sia a quello derivato dai modelli della persona giuridica o del trust anglosassone.

E inoltre:

  • Anche nel caso in cui all’IA potesse essere riconosciuta una qualche forma di soggettività giuridica, chi concretamente sarebbe tenuto al pagamento del prezzo in vista del giusto e completo risarcimento?
  • Qualora un’applicazione di IA fosse dotata di soggettività, dovrebbe disporre di un proprio patrimonio dedicato che consenta agli agenti intelligenti ritenuti responsabili di rispondere dei danni causati dalla loro condotta?
  • O piuttosto si renderà necessario individuare un sistema di allocazione preventiva della responsabilità; una sorta di fondo assicurativo?
  • Forse occorrerà prevedere specifiche norme di responsabilità oggettiva?

La Commissione UE[5], con una posizione che è stata ripresa anche dalla Risoluzione del Parlamento europeo del 20 ottobre 2020[6], si è espressa in merito alla qualificazione del regime di responsabilità delle applicazioni di IA ed avrebbe ipotizzando due diversi regimi operanti in caso di danno causato da dispositivo intelligente. Questi verrebbero distinti sulla base del grado di automazione del sistema: un regime assicurativo obbligatorio e una responsabilità oggettiva per determinati settori critici inseriti in un apposito elenco (da sottoporre alla verifica e all’aggiornamento della Commissione), definiti in base alla gravità dei possibili danni, al grado di autonomia della macchina, alla probabilità del danno, e alle modalità o al contesto di utilizzo dello strumento, da un lato, e un regime di responsabilità per colpa, aggravata da un sistema di presunzioni, in tutti gli altri settori.

Tutte prospettive che, seppur suggestive, non convincono ancora.

Il problema più complesso, quello relativo all’ individuazione, all’identificazione del soggetto a cui imputare la responsabilità, rimane al momento senza risposta e dunque senza soluzione.

  • Chi sarebbe responsabile in caso di danni causati da un’IA dotata di soggettività giuridica?
  • Come si potrebbero stabilire i diritti e le responsabilità dell’IA in relazione agli esseri umani?

Attualmente, i sistemi di intelligenza artificiale vengono considerati come strumenti degli esseri umani e sono trattati come tali dal punto di vista legale. Tuttavia, le discussioni sull’attribuzione della soggettività giuridica all’IA sono ancora in corso e potrebbero emergere nuove prospettive e regolamentazioni in futuro.

 Le allucinazioni dell’IA

Pensiamo in modo particolare a quei casi noti come allucinazioni algoritmiche dell’IA: da quelle insensate, a quelle plausibili ma errate, fino a quelle deliberate e dannose.

L’intelligenza artificiale può farci vedere quello che non esiste, ed è a disposizione di chiunque.

In altre parole, l’IA può produrre risultati che sono immaginari o inventati piuttosto che basati su fatti o informazioni verificabili.

Quello delle AI hallucination è un neologismo (neppure troppo felice) lanciato dallo scienziato Gary Marcus, e designa quell’insieme di nozioni infondate o errate, spesso plausibili, che affliggono le varie applicazioni di AIGC. Nello specifico ambito informatico, le allucinazioni coinvolgono ciò che viene fornito in input, ovvero i set di dati di addestramento rappresentativi (training data), carenti, errati o distorti, a volte neutri, molto più spesso influenzati da valori (e pregiudizi) e il processo di machine learning e deep learning successivo, soggetto a diverse forme di bias, per l’appunto generativo di output “allucinati”.

Modelli di intelligenza artificiale, come le reti neurali profonde, possono essere estremamente complessi, con milioni o addirittura miliardi di parametri. Questa complessità può portare a comportamenti imprevisti o a output non corretti, anche qualora i dati di addestramento fossero adeguati.

È dunque un problema che riguarda sia i benchmark di dialogo, sia i modelli.

“Nessuno nel campo ha ancora risolto i problemi di allucinazione”, ha recentemente dichiarato Sundar Pichai, CEO di Google e Alphabet.

Ilya Sutskever , capo scienziato di OpenAI e uno dei creatori di ChatGPT, afferma di essere fiducioso che il problema scomparirà con il tempo man mano che i modelli di linguaggio di grandi dimensioni impareranno ad ancorare le loro risposte nella realtà.

“Il piccolo sporco segreto è questo…tutti gli output dei processi di intelligenza artificiale generativa, indipendentemente dal tipo, sono effettivamente allucinazioni”, sostiene invece Bill Franks, Direttore del Center for Data Science & Analytics, Kennesaw State University.

“Il segreto di Pulcinella è nel nome di questi modelli: l’IA “generativa”. I modelli generano una risposta al tuo prompt da zero in base ai molti milioni di parametri che il modello ha creato dai suoi dati di addestramento. I modelli non tagliano e incollano né cercano corrispondenze parziali. Piuttosto, generano una risposta da zero, anche se probabilisticamente. (..) La chiave è ricordare che l’IA generativa produce effettivamente allucinazioni il 100% delle volte. Spesso, a causa della coerenza dei loro dati di addestramento, quelle allucinazioni sono abbastanza precise da sembrare “reali”. Oggi, l’IA generativa non dispone di verifica interna dei fatti, verifica del contesto o filtri di realtà. Dato che gran parte del nostro mondo è ben documentato e molti fatti ampiamente concordati, l’IA generativa si imbatterà spesso in una buona risposta. Ma non dare per scontato che una risposta sia corretta e non dare per scontato che una buona risposta implichi intelligenza e processi di pensiero più profondi che non ci sono!” Continua.

Alcuni esperti hanno dimostrato come i processi conversazionali addestrati su parametri di bassa qualità non solo si rivelano causa di allucinazioni ma anzi agiscono da amplificatori dell’errore, e tanto varrebbe anche per quei modelli progettati per ridurre il problema.

Per intenderci: se da una parte applicazioni di IA generativa come ChatGPT hanno dimostrato di poter ottenere almeno 1020 punti su 1600 possibili negli esami SAT College in matematica, lettura e scrittura (questo è il punteggio medio per l’ingresso di matricole alla California State University di Los Angeles o alla Western Illinois University), o si sono esibite a un livello C + in esami per quattro corsi presso la University of Minnesota Law School e hanno ottenuto punteggi pari o vicino al superamento dell’esame di licenza medica degli Stati Uniti; dall’altra la marginalità di errore si conferma piuttosto insidiosa, pericolosa soprattutto nei contesti dove l’accuratezza e l’affidabilità delle informazioni si rivelano fondamentali, assistenza sanitaria, ricerca biomedica, scrittura scientifica, gestione delle informazioni mediche e cliniche complesse, guida autonoma, giustizia e polizia predittiva .

Nel web diversi siti hanno collezionato numerosi esempi delle allucinazioni di ChatGPT e di altre applicazioni Large Language Models (LLM), come bibliografie di nomi e libri che non esistono e lunghi elenchi di citazioni, fatti e informazioni false o fuorvianti.

Una demo pubblica del nuovo Bard Chatbot di Google ha comunicato con orgoglio che il telescopio James Webb avrebbe scoperto il primo pianeta extraterrestre. Il prezzo delle azioni di Google ha subito un colpo di $ 100 miliardi una volta che gli astronomi hanno corretto il record.

ChatGPT di OpenAI ha riferito falsamente che Brian Hood, sindaco di Victoria, in Australia, fosse stato imprigionato per aver accettato tangenti straniere nei primi anni 2000. Falso. Hood ha chiesto a OpenAI di risolvere il problema o affrontare la prima causa al mondo per diffamazione di IA.

Neppure il chatbot Bing di Microsoft si è rivelato immune alle risposte false ed imprecise. Nella demo di Microsoft davanti ai giornalisti, la tecnologia ha analizzato i rapporti sugli utili di Gap e Lululemone. Confrontando le sue risposte con i report effettivi, il chatbot ha perso alcuni numeri. Altri sembrano essere stati inventati.

Snapchat ha rilasciato la sua My AI, il chatbot basato sulla tecnologia ChatGPT di OpenAI, avvertendo però come la stessa sia soggetta ad allucinazioni e dunque spesso inaffidabile.

In un’intervista al Financial Times in vista della riunione dei leader del G7 (Gran Bretagna, Francia, Stati Uniti, Canada, Germania, Italia e Giappone, oltre all’Unione Europea) a Hiroshima, il ministro della trasformazione digitale giapponese Taro Kono, ha voluto rendere noto il suo monito su quanto l’intelligenza artificiale potrebbe mettere alla prova la stessa fiducia popolare nella democrazia. Ha citato come eventi critici le prossime elezioni generali in Gran Bretagna e Giappone, così come la corsa presidenziale americana del prossimo anno, avvertendo come “le stesse potrebbero diventare bersagli maturi per elementi maligni dotati di potere AI”.

Le preoccupazioni delle Big tech e degli esperti del settore

La preoccupazione per la mancanza di una regolamentazione adeguata ai progressi tecnologici in corso è trasversale. Amministratori delegati delle società tecnologiche, funzionari pubblici e leader presenti al G7, tutti, hanno sottolineato la necessità di stabilire standard internazionali e guardrail più forti per la tecnologia AI.

Sundar Pichai, in audizione alla Casa Bianca per discutere della sicurezza dell’IA con il vicepresidente Kamala Harris, avverte come più importante della corsa allo sviluppo della tecnologia AI sia “la corsa per costruire l’IA in modo responsabile”. Per fare ciò suggerisce quadri regolatori flessibili e una partnership tra i governi degli Stati Uniti e dell’Europa.

Un invito che è stato accolto dall’UE e in particolare dal Commissario UE per la Concorrenza, Margrethe Vestager, che ha incontrato Pichai sottolineando la necessità di un fronte comune. Altrettanto vale per il capo del settore della Commissione europea (CE) Thierry Breton, che ha dichiarato l’impegno a collaborare con Alphabet al fine di stabilire regole di base e linee guida condivise sull’intelligenza artificiale prima dell’emanazione della legislazione ufficiale.

Margrethe Vestager, e il segretario di Stato americano Antony Blinken, in conferenza stampa al termine del Consiglio Ue-Usa su commercio e tech in Svezia hanno già annunciato la presentazione “nelle prossime settimane” di una prima versione di un codice di condotta comune sull’intelligenza artificiale.Il codice di condotta potrebbe includere norme per garantire la trasparenza delle decisioni basate sull’IA, la protezione dei dati personali, la prevenzione della discriminazione algoritmica e la sicurezza degli algoritmi.

Il codice sarà aperto alle aziende del settore “su base volontaria” e “a tutti i Paesi che condividono le stesse idee”, ha evidenziato Blinken.

Pichai non è il solo ad aver incontrato i rappresentanti della Casa Bianca; anche i CEO di Microsoft, Anthropic e OpenAI, tra gli altri sono stati convocati per discutere di sviluppo dell’intelligenza artificiale e di innovazione responsabile con Kamala Harris e gli alti funzionari dell’esecutivo americano.

OpenAI che ha sede negli Stati Uniti e ha collaborazioni internazionali con altre organizzazioni e istituzioni in tutto il mondo sta pensando alla sue prossime decisioni operative, tra cui anche l’apertura di una sede europea che possa facilitare la collaborazione con governi, autorità di controllo, istituti accademici e aziende. A maggior ragione stante l’imminente approvazione dela Regolamento sull’IA.

Sam Altman in vista in questi giorni nei principali paesi europei, Spagna, Francia, Polonia, Germania e Regno Unito, oltre a rassicurare sul fatto che ChatGPT non abbandonerà l’Europa, a dispetto di quanto trapelato, ha infatti lasciato intendere l’intenzione di stabilire una sede, forse in Francia, al fine di rafforzare i propri rapporti con le istituzioni locali, specie di vigilanza.

Proprio i fondatori di OpenAI esortano la creazione di un’autorità internazionale dedicata alla governance dell’intelligenza artificiale. E’ noto che OpenAI ha pubblicato un documento nel 2018 chiamato “Cooperative AI Manifesto” (Manifesto per un ‘IA cooperativa) che esprime la loro visione di promuovere l’uso benefico e responsabile dell’intelligenza artificiale. Nel documento, si suggerisce che, a causa potenziale della portata e degli impatti globali dell’IA, potrebbe essere necessario un impegno internazionale per evitare una corsa sfrenata agli armamenti e garantire che l’IA sia sviluppata in modo sicuro e vantaggioso per tutta l’ umanità. Il documento propone l’idea di creare una “agenzia internazionale di regolamentazione dell’IA” che collabori con governi e altre organizzazioni per stabilire politiche, standard e norme globali per l’IA.

Una sorta di Agenzia internazionale simile a quella per l’energia atomica, che dovrebbe sovrintendere la tecnologia e le società che ne curano lo sviluppo.

“Sarebbe importante che un’agenzia di questo tipo si concentri sulla riduzione del rischio esistenziale e non su questioni che dovrebbero essere lasciate ai singoli paesi, come definire ciò che un’intelligenza artificiale dovrebbe essere autorizzata a dire”, dichiarano.

Il CEO Sam Altman, il presidente e co-fondatore di OpenAI Greg Brockman e il capo scienziato Ilya Sutskever, hanno più volte riferito come l’IA sia destinata ad uno sviluppo inarrestabile entro i prossimi 10 anni e hanno ribadito la necessità di una regolamentazione di rango internazionale che tenga conto delle esigenze di controllo e supervisione in modo particolare in termini di “ispezione dei sistemi, audit, test di conformità agli standard di sicurezza, restrizioni sui gradi di distribuzione e sui livelli di sicurezza al fine di ridurre il “rischio esistenziale” che tali sistemi potrebbero rappresentare”.

“È concepibile che entro i prossimi 10 anni, i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti nella maggior parte dei domini e svolgeranno la stessa attività produttiva di una delle più grandi aziende di oggi”, scrivono.

Ritengono altresì fondamentale il “coordinamento” tra aziende che lavorano all’avanguardia della ricerca sull’IA. OpenAI suggerisce che un tale coordinamento possa avvenire attraverso un progetto istituzionale, o un contratto collettivo condiviso tra operatori del settore.

Muovendo da analoghe preoccupazioni, ma da una diversa prospettiva totalmente diversa l’ex CEO di Google Eric Schmidt prende le distanze tanto da Pichai quanto da Altman.

Parlando al programma Meet the Press della NBC, pur evidenziando la necessità di una regolamentazione adeguata per l’IA, ha infatti sostenuto come l’industria dell’IA sia destinata ad autoregolamentarsi, in modo particolare poichè nessuno al di fuori del settore si è ancora dimostrato abbastanza esperto nel funzionamento della stessa per poterla gestire adeguatamente.

“I governi attualmente non hanno le competenze per regolamentare adeguatamente l’intelligenza artificiale e dovrebbero lasciare quel lavoro alle stesse Big Tech”.

“La mia preoccupazione per qualsiasi tipo di regolamentazione prematura, soprattutto da parte del governo, è che è sempre scritta in modo restrittivo”, ha affermato.

Piuttosto, Schmidt auspica che i leader tecnologici addivengano presto ad un accordo globale sui guardrail da imporre e rispettare per mitigare quelli che lui stesso definisce i “peggiori comportamenti” dell’IA.

Rischi che i rapidi progressi nello sviluppo dell’intelligenza artificiale hanno reso sempre più tangibili.

È d’accordo Geoffrey Hinton, l’uomo che viene definito “Il Padrino dell’IA” (che ha recentemente lasciato la sua posizione in Google) che in più occasioni ha sostenuto come la regolamentazione dell’IA potrebbe essere complicata e che una legislazioni eccessiva potrebbe impedire lo sviluppo di nuove tecnologie e frenare l’innovazione. Tuttavia, ha sottolineato anche la necessità di una normativa che garantisca che l’IA posse essere utilizzata in modo responsabile e che vengano affrontate le doverose questioni etiche e di sicurezza.

Oltre 1.000 esperti (tra cui Elon Musk, Yuval Noah Harari, Steve Wozniak) di tutto il mondo firmatari di una lettera aperta, hanno chiesto una moratoria di sei mesi sullo sviluppo dell’intelligenza artificiale. Un monito al quale ha fatto seguito quello di altri studiosi ed esperti della Association for the Advancement of Artificial Intelligence, tra cuiEric Horvitz, direttore scientifico di Microsoft.

L’ Artificial Intelligence Security Center (CAIS), l’organizzazione no-profit per la sicurezza dell’IA, con sede negli Stati Uniti, ha identificato otto categorie di rischi su larga scala.

Rischi classificati come “catastrofici” ed “esistenziali”, legati allo sviluppo non regolamentato dell’intelligenza artificiale e amplificati dalle pressioni competitive oltre che da altri fattori. Sono indicati quelli legati all’applicazione dell’intelligenza artificiale in contesti bellici, le applicazioni che coinvolgono gli strumenti per la scoperta di farmaci potenzialmente utilizzati per lo sviluppo di armi chimiche, e altri, tra cui l’incremento della disuguaglianza dovuta a squilibri di potere legati all’IA, la diffusione di disinformazione e comportamenti di affermazione o imposizione del potere.

“Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, riporta la recente dichiarazione rilasciata dal Center for AI Safety che vede tra i suoi firmatari esperti di intelligenza artificiale, tra cui Geoffrey Hinton, Sam Altman e Yoshua Bengio, insieme ai dirigenti di Microsoft e Google.

Il Consiglio d’Europa sta pensando ad un trattato legalmente vincolante per l’intelligenza artificiale. Un accordo che coinvolgerebbe diversi paesi anche non europei, tra cui il Regno Unito e l’Ucraina, oltre a Stati Uniti, Canada, Israele, Messico e Giappone, che dovrebbe prevedere l’applicazione di misure per garantire che l’IA sia progettata, sviluppata e applicata in modo da tutelare i diritti umani, la democrazia e lo stato di diritto. Il trattato potrebbe potenzialmente includere moratorie sulle tecnologie che rappresentano un rischio per i diritti umani, come il riconoscimento facciale.

Non solo.

In Europa l’Organizzazione europea dei consumatori (BEUC) si è unita al coro di preoccupazione per ChatGPT invitando le agenzie di protezione dei consumatori dell’UE a indagare sui potenziali danni alle persone.

Il Comitato europeo per la protezione dei dati, EDPB, ha dichiarato ad aprile di aver istituito una task force su ChatGPT.

L’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) ha stilato una serie di principi non vincolanti che mirano a garantire i valori che dovrebbero sostenere lo sviluppo dell’IA.

Nel 2020 su iniziativa del ministro canadese Justin Trudeau e del presidente francese Emmanuel Macron, è nata la Global Partnership on AI (GPAI), 29 paesi, alcuni in Africa, Sud America e Asia, con l’intenzione di condividere informazioni, promuovere la collaborazione nelle attività di ricerca sull’IA responsabile e orientare le politiche in tutto il mondo.

Anche l’Organizzazione internazionale per la standardizzazione (ISO) ha sviluppato standard dedicati alla gestione del rischio e alle valutazioni d’impatto in tema di sviluppo dell’IA.

L’Alto Commissario delle Nazioni Unite ha più volte messo in guardia sui rischi invocando “efficaci misure di salvaguardia”.

La posizione dei Governi e i quadri regolatori sulla responsabilità

Accelerare la discussione sull’uso responsabile e la governance delle nuove tecnologie sta diventando una questione urgente per i governi di tutto il mondo, e certamente il mosaico altamente frammentato dei vari regimi normativi non facilita la convergenza dei diversi approcci.

Se da una parte la strategia cinese mira al controllo totalitario della propria società e al predominio in campo scientifico entro il 2030 e quella russa si concentra sulle applicazioni in materia di intelligence, dall’altra, negli Stati Uniti, il modello liberista crea una biforcazione tra settore pubblico e privato, in cui i colossi tecnologici della Silicon Valley puntano alla mercificazione deregolata delle opportunità tecnologiche.

Mentre il ruolo dell’Unione Europea nell’ecosistema digitale globale è in gran parte ancora da decidere. La promessa europea di una società digitale europea coerente con le sue radici etiche e costituzionali, in grado di confrontarsi a livello geopolitico con i leader transatlantici e interlocutori, che molto spesso navigano in direzione “ostinata e contraria”, appare un percorso ancora piuttosto indefinito: la strada si presenta in salita, irta e scivolosa. Insidiosa anche per l’incidenza delle sue stesse geometrie interne esposte alle velleità di chi cerca di dividere in nome del populismo e del sovranismo. Altrettanto vale per le sfide del costituzionalismo europeo alle prese con i poteri privati in ambito digitale: un tema aperto, complesso e in continua evoluzione. Le stesse relazioni transatlantiche in ambito tech si trovano ad un bivio fondamentale. L’accordo per i trasferimenti dei dati tra USA e UE non ha ancora visto la luce.

L’alchimia regolatoria che lega principi giuridici e costituzionali da una parte e innovazione dall’altra è d’altra parte una formula molto complessa. E certo una delle questioni più difficili da dirimere non riguarderà tanto l’an, bensì il quantum di regolamentazione necessaria per trovare un punto di equilibrio tra interessi spesso confliggenti.

Guardiamo al panorama attuale.

Cina

Lo scorso 11 aprile la Cina ha pubblicato una bozza di norme pensate regolamentare lo sviluppo di prodotti generati da tecniche di Generative AI: ChatGPT e in generale tutte quelle applicazioni appartenenti alla categoria Artificial Intelligence Generated Content (AIGC).

La proposta cinese, se implementata, segnerebbe la prima legge scritta al mondo specifica sull’AIGC e rappresenta l’ultimo mattone dell’imponente struttura normativa che la Cina sta costruendo attorno all’intelligenza artificiale e alle tecnologie correlate.

L’obiettivo dichiarato del progetto è sostenere lo sviluppo sano e l’applicazione regolamentata degli strumenti di intelligenza artificiale generativa. Ciò senza ostacolare, bensì incoraggiando, almeno nelle intenzioni dichiarate dai regolatori cinesi, l’innovazione indipendente, una maggiore consapevolezza e la cooperazione internazionale sulle nuove tecnologie dell’informazione.

Quanto alla responsabilità è previsto che le organizzazioni che utilizzano l’IA generativa, le aziende che forniscono l’accesso all’IA generativa tramite “interfacce programmabili”, ovvero API come quelle rilasciate da OpenAI e Google, debbano assumersi la responsabilità del produttore per il contenuto generato. Dovranno garantire “la veridicità, l’accuratezza, l’obiettività e la diversità” dei loro set di dati di formazione, e, se sono coinvolti dati personali, assumersi la responsabilità della sicurezza, correttezza e trasparenza dei trattamenti delle relative informazioni. Inoltre, i fornitori saranno responsabili della legittimità dei dati di pre-formazione e dei dati di formazione dei processi algoritmici predittivi. Qualora i dati dovessero contenere informazioni personali, i fornitori dovranno ottenere il consenso dell’interessato o soddisfare altre circostanze previste dalle leggi applicabili. Sempre i fornitori di servizi avranno l’obbligo di proteggere le informazioni di input dell’utente e i record di utilizzo e non conservare illegalmente quelle informazioni che potrebbero consentire l’identificazione degli utenti. Prima di offrire un servizio di IA generativa al pubblico in generale, un fornitore dovrà presentare alla Cyberspace Administration of China una due diligence di sicurezza e condividere determinate informazioni riguardanti l’uso degli algoritmi (ad esempio, il nome del fornitore del servizio, il modulo del servizio, il tipo di algoritmo e rapporto di autovalutazione dell’algoritmo) con la stessa. Ovvero dovranno condurre valutazioni in conformità con le “Disposizioni sulla valutazione della sicurezza” e adempiere agli obblighi di archiviazione dell’algoritmo in aderenza alle prescrizioni contenute nelle “Disposizioni per la gestione degli algoritmi”.

Europa

In Europa, il tema specifico della responsabilità dell’ IA è stato sostanzialmente “posposto” a data da definire. La proposta di Regolamento sull’IA contiene, infatti, solo un blando riferimento al fatto per cui il fornitore di un sistema di IA ad alto rischio sarà tenuto a garantire che il sistema sia conforme a determinati requisiti che ne consentano la certificazione. L’approvazione finale è prevista per metà giugno.

Si cimenta invece in questioni legate alla responsabilità degli agenti artificiali la proposta di Direttiva sull’adeguamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale, la “Direttiva sulla responsabilità dell’IA“, risalente al 28 settembre 2022 (nel medesimo frangente viene adottata anche la proposta di Direttiva sulla responsabilità per prodotti difettosi che aggiornerà le norme sulla responsabilità per danno da prodotti difettosi risalenti al 1985). Un tassello normativo che vorrebbe integrare il progetto di legge sull’IA ed ha come scopo dichiarato quello di “migliorare il funzionamento del mercato interno stabilendo norme uniformi per alcuni aspetti della responsabilità civile extracontrattuale per i danni causati dai sistemi di IA“. Riguarderà i reclami che esulano dall’ambito di applicazione della contestuale proposta di Direttiva sulla responsabilità per danno da prodotti difettosi[7]; mentre sono inclusi i casi in cui il danno sia causato da un comportamento illecito, comprese le violazioni in materia di protezione dei dati personali, o i danni causati da problemi di sicurezza. Uno degli obiettivi chiave della proposta è la riduzione delle difficoltà specifiche legate ai complessi meccanismi probatori legati all’IA. A tal fine previsto che gli Stati membri debbano garantire che i rispettivi tribunali nazionali possano predisporre la divulgazione di prove pertinenti su specifici sistemi di IA ad alto rischio.

La Commissione UE si dice convinta che con la nuova Direttiva si innalzerà il livello di tutela dei cittadini e il loro diritto ad ottenere un risarcimento in caso di discriminazioni derivanti da processi che coinvolgono la tecnologia.

Oltre ai meccanismi di accesso e condivisione delle prove pertinenti, l’onere probatorio verrebbe attenuato attraverso la previsione di specifiche “presunzioni di causalità” a vantaggio delle vittime.

Il regime di presunzione relativa dovrebbe variare a seconda che il convenuto sia un fornitore o un utente dei sistemi di IA e assumerà diversa rilevanza qualora l’apparato di intelligenza artificiale coinvolto sia definito ad “alto rischio”. In tal caso infatti, semmai il convenuto riuscisse a dimostrare che prove e competenze sufficienti possano essere ragionevolmente accessibili al ricorrente per dimostrare il nesso di causalità alla base dell’evento dannoso, allora la presunzione di causalità non sarebbe operativa.

I prossimi passi prevedono l’adozione della proposta da parte del Parlamento europeo e del Consiglio. Nel frattempo, mentre il dibattito da parte delle istituzioni europee procederà con le sue tempistiche, è probabile che i testi evolveranno prima della definitiva adozione.

Altri strumenti di tutela, strettamente collegati alla protezione dei dati personali, sono previsti dal Regolamento Europeo GDPR, come il diritto di accesso, il diritto di cancellazione dei dati, il diritto alla portabilità.

Al momento, la regola base, in assenza di una regolamentazione specifica, rimane comunque quella derivante dai tradizionali profili della responsabilità civile per fatto dell’uomo: prova del danno e nesso causale. Con tutti i limiti imposti dai nuovi scenari tecnologici.

Usa

Negli USA, l’amministrazione Biden, tramite l’Office of Science and Technology Policy (OSTP), ha già avviato consultazioni pubbliche su potenziali misure di responsabilità per i sistemi di intelligenza artificiale e i conseguenti rischi per la società, la sicurezza nazionale e l’economia.

Sono in corso valutazioni pubbliche indipendenti dei sistemi di IA generativa esistenti e nel frattempo non mancano neppure stanziamenti economici importanti, tra cui un finanziamento di 140 milioni di dollari per lanciare nuovi istituti di ricerca sull’IA.

Un nuovo report sui rischi e le opportunità dell’AI nel settore dell’istruzione, pubblicato dallo US Department of Education’s Office of Educational Technology, ha raccolto informazioni sulle problematiche e sui i benefici correlati all’intelligenza artificiale nell’insegnamento, nell’apprendimento, nella ricerca e nella valutazione.

Diverse altre azioni sono state intraprese sia a livello federale che di singoli stati, alla volta di un’innovazione responsabile dell’IA. Ciò include il progetto Blueprint for an AI Bill of Rights con i suoi cinque principi[8] che dovrebbero guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati e l’adozione dell’ AI Risk Management Framework, pubblicato dal National Institute of Standards and Technology, la cornice di valutazione entro la quale gestire i rischi associati all’intelligenza artificiale.

Tra le iniziative dei singoli stati si segnala quella dell’Illinois, per disciplinare l’utilizzo dell’IA nell’ambito dei processi di selezione del personale. Il riferimento è all’Artificial Intelligence Video Interview Act.

Altri Progetti di legge o risoluzioni generali sull’intelligenza artificiale sono stati introdotti in almeno 17 stati nel 2022 e sono stati emanati in Colorado, Vermont e Washington, oltre all’Illinois.

Sul tema specifico della “product liability” non esiste ancora una legge federale. Pertanto, le leggi sulla responsabilità dei prodotti variano da stato a stato. Quelli in cui la richiesta di risarcimento è subordinata a due requisiti: il primo relativo allo stato soggettivo della colpa (negligence), e il secondo attinente all’aspetto oggettivo della sussistenza di un rapporto contrattuale intercorrente tra la parte danneggiata ed il produttore e/o il venditore. E quelli che si affidano ad un regime di responsabilità oggettiva, “strictly liable”, per i danni arrecati ai terzi o a violazioni di garanzia inerenti il negozio giuridico sottostante.

Non esistendo una legislazione uniforme di tipo federale, molti stati differenziano il trattamento normativo della product liability, basandosi al momento su uno standard elaborato dal Dipartimento del Commercio USA, il c.d. Model Uniform Products Liability Act.

Le cose si complicano ulteriormente in caso di sistemi di intelligenza artificiale, specie se complessi.

Per far fronte alla perdurante carenza di un quadro regolatorio adeguato allo sviluppo tecnologico il senatore Ron Wyden, il senatore Cory Brooker e la deputata Yvette Clark hanno pertanto introdotto l’Algorithmic Accountability Act 2022 (una versione rivista dell’Algorithmic Accountability Act del 2019, mai adottato). Un disegno di legge, articolato in 50 pagine, che si propone di affrontare le crescenti preoccupazioni del pubblico sull’uso diffuso di sistemi decisionali automatizzati. Uno dei pochi, per la verità, che affronta questioni relative all’uso dell’IA nel settore privato.

Alle organizzazioni che implementano tali sistemi verrebbe richiesto di adottare diverse misure concrete per identificare e mitigare i rischi sociali, etici e legali. Il disegno di legge suggerisce anche un ruolo più attivo per la Federal Trade Commission, compresa la possibilità di richiedere specifiche valutazioni d’impatto dei processi decisionali automatizzati e per quelli critici. Tali valutazioni verrebbero in seguito condivise dalla stessa FTC attraverso un archivio accessibile al pubblico. Sempre la FTC sarebbe tenuta alla redazione di un rapporto annuale con tendenze, lezioni e statistiche, al fine di promuovere la trasparenza la responsabilità sul corretto utilizzo dei sistemi automatizzati.

Viene ipotizzata anche l’istituzione di un Bureau of Technology, oltre allo stanziamento di risorse per l’incremento dell’organico da destinare al nuovo ufficio.

Ai procuratori generali dello stato verrebbe inoltre consentito il diritto di citare in giudizio per conto dei residenti dello stato a fini risarcitori.

Non sarebbe al momento previsto alcun divieto per alcuna tecnologia.

Il disegno di legge in questione è peraltro solo l’ultimo tassello di uno mosaico fatto di numerosi progetti normativi volti a controllare i sistemi algoritmici. Molti di questi ruotano attorno all’alveo della riforma della Sezione 230, come l’Algorithmic Justice and Online Platform Transparency Act del 2021, il disegno di legge promosso dal senatore statunitense Michael Bennet, il Digital Platform Commission Act e il Protecting Americans from Dangerous Algorithms Act che vorrebbe ritenere responsabili le aziende tecnologiche qualora i loro algoritmi amplificassero contenuti d’odio o estremisti.

Oltre alla proposta di Legge sulla protezione dei dati.

Conclusioni

La responsabilità è una questione fondamentale; per le organizzazioni in termini di certezza del diritto, e per i cittadini, in termini di tutela dei diritti e agevolazione del risarcimento. In relazione all’uso dei sistemi di IA è una questione addirittura critica. Eppure, è un tema ancora aperto e mutevole. L’opacità dei sistemi di IA potrebbe rendere in pratica molto difficile o addirittura impossibile, come nel caso delle reti neurali profonde, ricondurre eventuali azioni dannose dei sistemi di IA a specifici input umani o alle decisioni progettuali.

E d’altra parte la spiegabilità dell’IA è un campo di ricerca attivo e in continua evoluzione. Negli ultimi anni sono stati fatti progressi significativi nello sviluppo di metodi e tecniche per rendere i sistemi di intelligenza artificiale più trasparenti ed interpretabili. Tuttavia, non esiste ancora una soluzione definitiva o un approccio standardizzato per affrontare completamente il problema dell’opacità.

Il discorso si pone dunque più su un piano tecnico giuridico che non su un piano etico o naturalistico.

Il mercato delle intelligenze artificiali richiede capacità di adattamento alle sue costanti trasformazioni e cultura organizzativa. Dal momento che gli algoritmi non sono neutrali, imparziali ed oggettivi e che molto difficilmente le loro implementazioni potranno tradursi in mere scelte amministrative, di ordine pubblico e sicurezza nazionale o di business, allora è chiaro quanto la sfida lanciata da queste problematiche sia globale e immensa.

Note


[1] Secondo una ricerca di Salesforce il 57% degli intervistati (Senior con posizione di leadership nell’IT) ritiene che l’AI generativa sia un “cambiamento radicale”. https://www.salesforce.com/news/stories/generative-ai-research/

Goldman Sachs stima un incremento del PIL globale del 7% (circa $7 trilioni) e un aumento della produttività dell’1,5% in un decennio grazie a questa tecnologia. https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html

Un’indagine di OpenAI suggerisce che l’AI generativa potrebbe influire sul 10% dei compiti per l’80% dei lavoratori statunitensi, arrivando al 50% per il 19% di essi. https://openai.com/research/gpts-are-gpts

Una recente ricerca di GitHub mostra come il suo assistente virtuale, basato su AI, sia in grado di raddoppiare la produttività del lavoro, dimezzando i tempi di sviluppo. https://github.blog/2022-09-07-research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

[2]I casi sono Gonzalez contro Google nel quale i parenti dell’unica vittima americana negli attentati di Parigi del 2015 hanno fatto causa a Google, affermando che i suoi algoritmi avrebbero promosso la propaganda dell’ISIS e Twitter contro Taamneh nel quale le vittime di attacchi terroristici a Istanbul citano Twitter in base all’Anti-Terrorism Act, per aver favoreggiato i terroristi.

[3]Il riferimento si riporta ai disegni di legge che mirano alla rimodulazione dell’immunità da responsabilità della Sezione 230, tra cui il Journalism Competition and Preservation Act del 2021 (JCPA), presentato alla Camera dal deputato Dem. David Cicilline e Rep. Ken Buck, e al Senato dal senatore Dem. Amy Klobuchar e dal senatore Rep. John Kennedy , il Protecting Americans from Dangerous Algorithms Act, il Platform Accountability and Transparency Act (introdotto dai senatori Amy Klobuchar, un democratico del Minnesota e Chuck Grassley, un repubblicano dell’Iowa), oltre ad ulteriori proposte di legge intese a rafforzare la privacy e a proteggere i diritti dei minori online, come il Children’s Online Privacy Protection Act, promosso dal senatore democratico Ed Markey. Oltre a questi, altri progetti normativi al vaglio dei legislatori statunitensi vorrebbero che, tanto il procuratore generale dello stato, quanto i procuratori distrettuali locali e i procuratori delle quattro città più grandi della California avessero la possibilità di citare in giudizio le società di social media qualora i contenuti diffusi online si rivelassero idonei a danneggiare i minori alimentando forme di ansia e/o dipendenza. In diverse occasioni il presidente degli Stati Uniti Biden ha affermato come la sua amministrazione sosterrà la posizione secondo cui le protezioni della Sezione 230 non debbano estendersi agli algoritmi di raccomandazione.

[4]Raccomandazioni che hanno trovato risposta nella Comunicazione del 25 aprile 2018 “L’intelligenza artificiale per l’Europa”(9) – alla quale e` allegato uno staff working document dedicato a “Liability for emerging digital technologies” e nel Report degli esperti Liability for Artificial Intelligence and other emerging digital technologies, Report from the Expert Group on Liability and New technologies – New Technologies Formation, European Union, 2019. Entrambi i documenti suggeriscono l’adattamento delle regole di sicurezza e di responsabilita`.

[5]Commissione Europea, COM (2020) 64 final, 16 febbraio 2020 e Commissione giuridica del Parlamento europeo, Proposta di risoluzione che propone una disciplina di responsabilita` oggettiva per i settori ad alto rischio e una disciplina di responsabilita` per colpa presunta per gli altri settori.

[6]Risoluzione che formula una proposta di Regolamento sulla responsabilita` per il funzionamento dei sistemi di intelligenza artificiale, ritenendo insufficiente lo strumento della direttiva. La Risoluzione non si sofferma invece sul tema della responsabilita` del produttore, limitandosi ad auspicarne l’adattamento attraverso la ridefinizione dei concetti di prodotto, di pregiudizio e di difetto. Sul punto di veda U. Salantrino, “Intelligenza artificiale e responsabilità: la strategia della Commissione Europea”, 2020.

[7]Le due direttive proposte hanno ambiti oggettivi diversi e complementar: la Direttiva sui prodotti difettosi stabilisce norme aggiornate in materia di responsabilità oggettiva del produttore per i prodotti difettosi, mentre la direttiva sulla responsabilità per l’IA disciplina le azioni di responsabilità per colpa al fine di risarcire le vittime dei danni derivanti dall’uso di sistemi di IA ad alto rischio.

[8] Sistemi sicuri ed efficaci – Protezioni da discriminazione algoritmica – Privacy dei dati – Avviso e spiegazione – Alternative umane, considerazione e fallback

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 4