Dopo una lunga attesa, che durava quantomeno dalla grande kermesse promossa dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio lo scorso 12 marzo, è stato finalmente pubblicata a fine luglio la strategia italiana per l’intelligenza artificiale 2024-2026, che va a sostituire quella licenziata dal Governo Draghi.
Si deve parlare non a caso di sostituzione perché l’orizzonte temporale del precedente piano strategico, anch’esso triennale, terminava per l’appunto nel 2024.
Ma, oltre ai limiti di partenza della strategia pubblicata nel novembre del 2021, sui quali torneremo più avanti, è evidente come il mondo dell’intelligenza artificiale (IA) non sia più lo stesso dopo la cesura rappresentata dal lancio di ChatGPT il 30 novembre del 2022 e l’inarrestabile ascesa dell’IA generativa.
Che per inciso ha rischiato di travolgere lo stesso AI Act, anch’esso risalente al 2021 nella sua formulazione originaria da parte della Commissione europea.
Soprattutto, a essersi modificata è la percezione collettiva dell’IA e il suo ruolo nella società e nella cultura del tempo, nel 2021 ancora piuttosto marginale, oggi al centro del dibattito e delle attenzioni di tutti. Infatti, la strategia del 2024 riflette questa mutata sensibilità, allargando lo spettro di osservazione (ma al tempo stesso senza perdere la necessaria focalizzazione).
Le quattro aree tematiche (ricerca, pubblica amministrazione, imprese e formazione) riflettono la natura onnivora dell’IA, senza mai dimenticare il ruolo essenziale che in questa rivoluzione giocano i cittadini come le piccole e medie imprese, oltre al mondo accademico e della ricerca e alle imprese tecnologiche, ai quali si rivolgeva principalmente il piano strategico del Governo Draghi.
Strategia italiana per l’intelligenza artificiale 2024-2026, i rischi citati
Prima di addentrarci nei punti a mio avviso salienti (e anche meno scontati) della nuova strategia, interessante fermarci nel preambolo sui rischi evocati. Che non sono i soliti ai quali potremmo pensare, dai deep fakes al copyright, dalla privacy alle allucinazioni. Per dare l’idea del cambio di passo, anche rispetto alle eccessive paure che stanno frenando il take-up dell’IA in Italia, il primo rischio a guadagnarsi una citazione è quello del “non fare”, per andare oltre “approcci timidi al perseguimento degli obiettivi strategici” che “rischiano di risolversi in uno spreco di risorse e in una ulteriore perdita di competitività”.
Dunque, “occorre essere ambiziosi, evidenziando il valore economico dell’impiego di questi sistemi tecnologici nei servizi (anche pubblici o di pubblico interesse) e nei processi produttivi”. Per nulla scontato anche l’enunciazione del rischio di iper-regolazione nazionale, per evitare il quale “calando il contesto regolatorio europeo a livello nazionale, si dovrà evitare di costruire ulteriori sovrastrutture normative nella definizione delle azioni strategiche, adoperandosi invece nella direzione di promuovere l’AI Act con linee guida e percorsi agili e a misura di impresa e cittadino”.
Una dichiarazione di principio importante che appare anche un monito per il ddl governativo sull’IA (A.S. n. 1146), attualmente in discussione in Parlamento (sul quale torneremo pure verso la fine, mettendo a confronto la strategia con il testo di partenza del disegno di legge che dovrebbe attuarla o quantomeno indirizzarne l’implementazione).
Più convenzionali (ma non per questo meno importanti) i rischi per il mondo del lavoro e rispetto al digital divide mentre non scontato (perché rivela quello che è uno dei profili migliori di questa strategia, l’attenzione alla sua attuazione ) quello dell’inefficacia. Ecco pertanto che se “le politiche per l’IA si connotano e si connoteranno sempre di più come un bersaglio mobile” a fronte della velocità dei cambiamenti in essere, “per minimizzare questo rischio, si dispiegherà un opportuno meccanismo di coordinamento delle attività e un adeguato sistema di monitoraggio, avendo cura di associare ad ognuna delle azioni strategiche un indicatore e target specifici di raggiungimento di risultato”.
Omogeneizzazione culturale e ruolo dell’Italia
Una previsione da manuale delle migliori strategie che tuttavia andrà testata nel tempo. Leggermente più perplessi (anche se poi nella strategia se ne definiscono meglio i contorni) lascia il rischio dichiarato di “omogeneizzazione” culturale, che parte dalla presa d’atto che la maggior parte dei sistemi attuali è oggi prodotta all’estero, portando quindi “a riprodurre nel nostro differente contesto sociale, anzitutto italiano, ma altresì europeo, idee e valori sovente disomogenei”.
Il riferimento all’Europa appare un fattore mitigante che sembra però superato poco dopo laddove si afferma che “sviluppare un sistema secondo i valori e l’idea dei diritti di una nazione porta con sé l’ineludibile interesse ad avere una tecnologia conforme ai valori costituzionali del suo ordinamento, allo stesso tempo riaffermandoli e preservandoli.”
Naturalmente, non vogliamo sostenere che le tecnologie diffuse in Italia debbano contravvenire all’ordinamento costituzionale italiano e al sistema di valori sul quale esso è basato ma a questo dovrebbe già pensarci per l’appunto l’AI Act, a fronte peraltro di rischi già di per sé piuttosto elevati di iper-regolazione (quantomeno in una prospettiva comparata con il resto del mondo).
Allo stesso tempo, ci auguriamo che ci siano modelli e applicazioni italiane ma se le favoriamo al di fuori di una logica che non può che essere di mercato e di respiro quantomeno europeo lo scarto laterale sarebbe disastroso e porterebbe come minimo proprio a quello spreco di risorse e all’ulteriore perdita di competitività che si vorrebbero evitare. Le pagine seguenti chiariranno che non è questo il punto di vista degli estensori della strategia ma non siamo troppo a digiuno di eterogenesi dei fini per non renderci conto che evocare specificità italiane in questo Paese possa mettere in moto processi difficilmente arrestabili e al contempo con risultati quasi sempre nefasti.
Le principali azioni della strategia per l’intelligenza artificiale 2024-2026
Le azioni strategiche sono 27, di cui 7 per la formazione, 6 ciascuna per ricerca e pubblica amministrazione, 5 per le imprese, 2 per le infrastrutture abilitanti (rispettivamente, dataset e modelli nonché infrastrutture di rete) e infine 1 per l’attuazione, il coordinamento e il monitoraggio, affidata alla Fondazione per l’intelligenza artificiale, soggetto che sarebbe posto sotto il diretto controllo della Presidenza del Consiglio dei Ministri e chiaro architrave dell’intera strategia.
Senza poterci soffermare su tutte le azioni, limitiamoci a passare in esame quelle che ci paiono più significative (e anche innovative).
La ricerca
Partendo dalla ricerca, e a smentita delle apparenti pulsioni autarchiche citate in precedenza, da evidenziare il piano straordinario di ricercatori con il fine non solo di trattenere cervelli in (potenziale) fuga ma anche di attrarre talenti dall’estero, con l’obiettivo di stimolare la formazione di competenze locali e facilitare lo scambio continuo di conoscenze con un effetto trainante sull’intera comunità scientifica.
Così come ampiamente condivisibili sono i progetti interdisciplinari finalizzati al benessere sociale (es. ottimizzazione delle risorse energetiche a ambientali, impatti su diseguaglianze, profili etici, ecc.) e il potenziamento delle collaborazioni internazionali con scambi di ricercatori. Rispetto alla progettazione di LMM (Large Multimodal Model) e LLM (Large Language Model) italiani, la strategia pensa soprattutto a particolari domini applicativi (es. PA e salute), dove effettivamente disponibilità di dati e considerazioni di sicurezza nazionale possono avere il loro peso, e l’erogazione prevista di denaro pubblico su base competitiva dovrebbe almeno in principio evitare evidenti sprechi. La previsione di un Comitato Etico che ne approvi le linee generali e le metodologie realizzative, per quanto corretta in astratto (in aggiunta alle previsioni dell’AI Act e di tutte le altre regolamentazioni in materia), dovrà trovare un’applicazione necessariamente agile perché il tempo in questo campo non solo è (molto) denaro ma anche mancata innovazione.
Pubblica amministrazione
Rispetto alla pubblica amministrazione, il documento prevede linee guida per promuovere l’IA, per il procurement e per la realizzazione di applicazioni. Interessante, per i suoi effetti a cascata, la previsione di un dipartimento per l’IA all’interno della Scuola nazionale dell’amministrazione, con lo scopo di formare i dipendenti pubblici, tenendo conto delle diverse esigenze.
Le imprese
Relativamente alle imprese, spiccano per importanza e concretezza due azioni strategiche.
In primis, la previsione di facilitatori radicati sul territorio che possano assistere in particolare le piccole e medie imprese. A loro spetta l’erogazione di servizi di innovazione a partire dall’assessment della maturità tecnologica delle aziende e dei loro bisogni di investimento. Forse ambiziosa la mole di altre azioni che dovrebbero svolgere laddove già la prima sarebbe fondamentale per l’orientamento di tante imprese alle quali mancano elementi di base per poter agire consapevolmente.
Un’altra azione strategica di notevole valore, a fronte degli elevati costi di compliance attesi derivanti dall’AI Act, è il previsto sostegno alle attività di certificazione per le attività ad alto rischio e, in particolare per piccole e medie imprese e startup, per accedere alle sandbox regolamentari, elemento centrale pro-innovativo del regolamento UE.
Per le startup sono poi previste ulteriori forme di supporto e la promozione di partnership pubblico-privato.
Formazione
La formazione tiene insieme il rafforzamento di quella specialistica, già interessata grazie anche al piano strategico del 2021 da provvedimenti che si sono mossi nella giusta direzione (ad esempio, il dottorato nazionale in IA) e anche il supporto a didattica e formazione di base, a partire dalla formazione dei docenti delle scuole e a favore dei cittadini.
Condivisibile anche l’idea di una versione multimediale dell’iniziativa “Elementi di AI” per abbattere le barriere di accesso e permettere davvero a tutti di impratichirsi. Così come quella di consorzi nei quali le grandi imprese possano erogare formazione in una logica di filiera anche ai dipendenti di aziende più piccole.
Un confronto con il piano strategico del Governo Draghi
Come abbiamo già ricordato, un pregio della Strategia del Governo Meloni è certamente nell’attenzione riservata all’adozione delle tecnologie di IA, includendo i due (quasi) esclusi di quella che l’ha preceduta, la formazione delle imprese e l’informazione dei cittadini.
Un altro grande merito è stato quello di essersi preoccupato della sua attuazione, prevedendo un soggetto ad hoc, la Fondazione (anche se, per trovare il pelo nell’uovo, sarebbe stato meglio distinguere i soggetti rispettivamente deputati a implementazione e monitoraggio/valutazione) e meccanismi specifici di accountability (es. il rapporto annuale al Parlamento).
Rispetto a due altri evidenti limiti del piano strategico 2022-2024, durata triennale e mancanza di fondi ad hoc, quello 2024-2026 continua a non consentire di valorizzare una visione strategica, che deve necessariamente essere di medio-lungo periodo.
Si sarebbe potuto scegliere un intervallo di cinque anni, come hanno fatto altri Paesi oppure una soluzione alternativa, compatibile con la necessità di dare continuità temporale ad azioni che hanno bisogno di un certo tempo fisiologico per potersi consolidare e dare risultati ma anche con quella di dover aggiornare con una certa regolarità un quadro decisamente mutevole da un punto di vista tecnologico (e non solo) avrebbe potuto essere sarebbe stata quella di prevedere una visione di più lungo termine, con delle linee di indirizzo sulle quali innestare un piano di più breve termine, di durata per l’appunto triennale.
Inoltre, l’attuazione di una strategia passa attraverso le maglie delle somme effettivamente stanziabili.
In questo caso, siamo passati da un piano strategico che citava risorse consistenti (facendo opportunamente riferimento per ogni singola azione alle corrispondenti «possibili fonti di investimento»), ma senza alcun impegno certo che riguardasse i singoli progetti ad hoc di IA, a una che non menziona esplicitamente alcuna cifra e a un correlato ddl governativo, che al netto del famoso miliardo di euro già contenuto nel piano industriale di CDP Venture Capital e che va spalmato per cinque anni e tra diverse tecnologie tra le quali l’IA e di pochi altri milioni per progetti specifici, rispetta rigorosamente la clausola di invarianza finanziaria che chiude il testo del provvedimento.
Strategia nazionale vs. disegno di legge sull’IA
Il ddl sull’IA, attualmente all’inizio dell’esame da parte del Parlamento, e che in teoria dovrebbe attuare la strategia manca al momento di alcuni tasselli fondamentali contenuti in essa. Come considerazione generale, non bisogna essere esperti di conti per capire che molte delle misure previste nella strategia dovrebbero essere finanziate ex novo o prevedono comunque un rafforzamento degli stanziamenti già in essere.
A fronte di queste esigenze, contenute in quasi ogni azione strategica, la clausola di invarianza finanziaria si erge come un primo muro invalicabile. Non a caso, molte misure risultano assenti nel testo approdato in Parlamento, a cominciare dall’istituzione della Fondazione, vero perno centrale della strategia. Altre, in particolare quelle legate alla formazione, sono rinviate a futuri provvedimenti, sulla base di una o più deleghe al Governo.
Pro e contro
Oggi, dunque, ogni giudizio sulla strategia, che di per sé è un documento che ha diversi pregi, il primo dei quali è la sua maggiore completezza, e rappresenta certamente un salto in avanti rispetto al piano strategico del 2021, non può che rimanere sospeso.
A seconda che il documento prenda la via dell’ennesimo cassetto ministeriale o venga attuato almeno parzialmente.
Esercizio per il quale, pur nelle ristrettezze finanziarie che conosciamo, la serietà che dovrebbe ispirare la necessaria consapevolezza di trovarci di fronte a una sfida epocale impone che si trovi un budget che potremmo definire di sopravvivenza.
E che questo sia possibilmente impiegato secondo criteri di efficienza e dunque priorità ben definite. Che al momento mancano sia nel ddl che nella strategia.