La fine del 2023 e l’inizio del 2024 sono stati contraddistinti dalle parole che le due figure pubbliche tradizionalmente di maggiore riferimento del nostro Paese, il presidente della repubblica e il papa, hanno dedicato all’intelligenza artificiale (IA). Una conferma ulteriore, se mai ce ne fosse stato bisogno, che il tema è ormai diventato mainstream ma anche un potente richiamo ai decisori e a tutta la società a occuparsi del tema prima di essere travolti da un’onda tecnologica che entrambi ritengono inarrestabile.
L’AI nel messaggio del presidente Mattarella
Nel suo messaggio di fine anno, il presidente Sergio Mattarella ha ricordato l’importanza di “saper leggere la direzione e la rapidità dei mutamenti che stiamo vivendo. Mutamenti che possono recare effetti positivi sulle nostre vite. La tecnologia ha sempre cambiato gli assetti economici e sociali. Adesso, con l’IA che si autoalimenta, sta generando un progresso inarrestabile. Destinato a modificare profondamente le nostre abitudini professionali, sociali, relazionali.” Il presidente della repubblica ci ricorda che “ci troviamo nel mezzo di quello che verrà ricordato come il grande balzo storico dell’inizio del terzo millennio. Dobbiamo fare in modo che la rivoluzione che stiamo vivendo resti umana. Cioè, iscritta dentro quella tradizione di civiltà che vede, nella persona – e nella sua dignità – il pilastro irrinunziabile”.
Papa Francesco I e l’intelligenza artificiale
Una lettura non troppo dissimile da quella di Papa Francesco che, nel messaggio per la LVII Giornata mondiale della pace, che cade il primo dell’anno, dedicato interamente agli scenari aperti dall’IA, scrive che “l’IA diventerà sempre più importante. Le sfide che pone sono tecniche, ma anche antropologiche, educative, sociali e politiche. Promette, ad esempio, un risparmio di fatiche, una produzione più efficiente, trasporti più agevoli e mercati più dinamici, oltre a una rivoluzione nei processi di raccolta, organizzazione e verifica dei dati. Occorre essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali, rispettando le istituzioni e le leggi che promuovono lo sviluppo umano integrale.
L’IA dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi.” Dunque, dallo stupore generale che ha caratterizzato il 2023 di fronte ai rapidi avanzamenti della tecnologia occorre ora passare a un 2024 che possa tradurre le promesse in realtà per massimizzare i benefici e ridurre al minimo i rischi. E per farlo devono scendere in campo soprattutto governi e imprese, ciascuno nel proprio ruolo.
L’attesa per la strategia nazionale sull’intelligenza artificiale
L’attuale governo ha deciso di rimettere mano al piano strategico, elaborato nel 2021 dal Governo Draghi per il triennio 2022-2024, prima della sua scadenza naturale. Una scelta del tutto condivisibile, anche perché il piano, che pure era il frutto di un buon lavoro, aveva diversi limiti, come già evidenziato a suo tempo su queste colonne. Oltre a un orizzonte temporale e spaziale troppo ridotti (tre anni e un focus preponderante sulla ricerca e sviluppo), non aveva un budget né una governance dedicati. Due peccati capitali ai quali confidiamo la strategia in costruzione possa ovviare. Perché per essere davvero incisiva e non l’ennesimo libro dei sogni una strategia dovrebbe indicare da un lato le cifre effettivamente disponibili e dall’altro i soggetti responsabili delle azioni previste nonché un meccanismo di verifica dell’attuazione e dei suoi impatti.
Il possibile fondo pubblico-privato per le startup innovative
Per ora, sono soprattutto due le iniziative del Governo che, secondo le indiscrezioni pubbliche, dovrebbero trovare posto nella strategia. Quella più macroscopica per dimensioni è senz’altro la costituzione di un fondo pubblico-privato di venture capital, sotto l’egida di CDP, per favorire la crescita delle startup innovative italiane.
In effetti, se si guarda agli investimenti in venture capital nell’IA, l’Italia non è scavalcata solo da Francia e Germania (di diversi multipli) come anche dalla Spagna ma anche da Paesi molto più piccoli come Olanda e Svezia. Un solo fondo non potrà fare certamente miracoli ma se opportunamente indirizzato e soprattutto aggregato ai fondi esistenti (comunque in aumento) e a quelli potenzialmente attraibili dall’estero (basti pensare a diverse recenti operazioni in Europa, specie in Francia e Germania, che hanno visto protagonisti capitali statunitensi) potrebbe accelerare significativamente il percorso di crescita in atto.
Centro per l’intelligenza artificiale di Torino
Un’altra iniziativa potenzialmente importante è quella del Centro per l’intelligenza artificiale di Torino, già proposta nel 2019 e rilanciata dall’attuale governo che ha previsto l’istituzione di una Fondazione, che dovrebbe chiamarsi AI4Industry, dotata di un budget finanziato dallo stato di venti milioni di euro l’anno. Nella visione di chi scrisse la bozza di strategia di allora, che non vide mai la luce, un Istituto italiano per l’intelligenza artificiale avrebbe dovuto avere un ruolo di faro della ricerca in Italia, anche con l’ambizione di poter dialogare con sufficiente massa critica e autorevolezza con soggetti esteri, a cominciare da quelli europei.
Nella versione dell’attuale governo, che stranamente precede la strategia nazionale ancora in corso di stesura, sembrerebbe invece configurarsi come un centro che serve a unire e rafforzare soprattutto le eccellenze del territorio torinese o tutt’al più piemontese, con una specializzazione nei settori automotive e aerospaziale. Ma d’altronde, se a quei venti milioni l’anno non si sommassero altri capitali pubblici o privati, non si potrebbe di certo andare molto più lontano.
Nelle stime del 2019, da rivedere senz’altro al rialzo, si supponeva che il budget annuale dovesse essere pari ad almeno quattro volte tanto per poter svolgere un ruolo effettivo. D’altronde, l’Istituto italiano di tecnologia, che ha sede a Genova e sul quale si era modellato l’Istituto italiano per l’IA, conta su un finanziamento statale ordinario vicino ai 100 milioni di euro annui. Travalicando di molto i confini del territorio che lo ospita per qualità e ampiezza delle ricerche e provenienza del personale.
Il ruolo internazionale dell’Italia
Il 2024 sarà però anche l’anno nel quale l’attenzione dell’Italia verso l’IA avrà un palcoscenico interazionale naturale. Il nostro Paese è infatti dal primo gennaio presidente di turno del G7 che, insieme all’ONU, all’OCSE e al Summit internazionale sulla sicurezza promosso dal governo inglese, è attualmente il principale foro di dialogo internazionale sul tema.
Il codice di condotta
La presidenza italiana avvicenda quella giapponese che, con il cosiddetto Hiroshima AI Process, ha promosso nel corso del 2023 la redazione di un codice di condotta basato su 11 principi rivolti alle organizzazioni che a livello internazionale sviluppano sistemi IA. Si tratta di principi volontari tesi soprattutto a mitigare i rischi derivanti da possibili usi malevoli o negligenti della tecnologia, con un ampio ricorso alla pubblicazione di informazioni e reportistica, all’elaborazione e allo svolgimento di test, alla creazione di standard comuni.
La pubblicazione del codice di condotta e dei principi guida, avvenuta lo scorso 30 ottobre, è stata in gran parte oscurata mediaticamente dall’adozione lo stesso giorno dell’executive order di Biden, ma traccia l’inizio di un percorso potenzialmente promettente. In parte perché si tratta a questo punto di favorire la tempestiva adozione di quei principi, a prescindere dalle tempistiche previste dall’AI Act.
Ma anche perché quegli stessi principi sono per dieci undicesimi focalizzati sui rischi più che sulle opportunità dell’IA. Se è giusto che una declinazione di IA responsabile chiami a raccolta in primis i Paesi che stanno contribuendo maggiormente al suo sviluppo, prevenendo possibili esternalità negative verso gli altri, dai Paesi più avanzati del mondo ci si aspetterebbero anche iniziative concrete di cooperazione tra loro e con altri Paesi per sviluppare le tecnologie, magari in ambiti e verso destinatari ritenuti meno interessanti o prioritari dal settore privato. Oppure per aiutarne l’adozione presso segmenti della popolazione o in aree del mondo che rischiano altrimenti di rimanere indietro.
Infine, visto che al contrario dell’ONU ma anche del Summit sulla sicurezza dell’AI, il G7 riunisce solo Paesi democratici, un’enfasi maggiore andrebbe riposta nel riaffermare un modello di IA libera e aperta che, salvaguardando la sicurezza, promuova l’innovazione prevenendo censure o misure restrittive verso questo o quel modello (per esempio, chiusi o open source). Interessante anche l’idea lanciata dal premier Meloni, proprio a margine del primo summit sulla sicurezza dell’IA, tenutosi a Bletchley Park lo scorso 1 e 2 novembre, su una conferenza che si dovrebbe tenere durante la presidenza italiana sulle conseguenze dell’IA sul mercato del lavoro. Aprendo un nuovo canale di dialogo e possibilmente di cooperazione a livello internazionale sulle misure necessarie per adattare i lavoratori di oggi e di domani alle sfide poste dall’IA.
Le strategie delle imprese
In un editoriale di fine 2023 del Financial Times disponibile qui si sottolinea che “questo è stato un anno folle e rivoluzionario per l’intelligenza artificiale, diventata argomento caldo di discussione in quasi ogni sala riunioni aziendale. Eppure, nonostante tutto l’hype e il dramma, sono emersi pochi casi d’uso aziendali convincenti per la tecnologia. Tutte le chiacchiere sull’IA generativa che reinventa la ricerca su internet sono svanite dopo che Bing con IA di Microsoft non è riuscito a disturbare il dominio di mercato di Google. Preoccupazioni sulla sicurezza dei dati, i diritti di proprietà intellettuale e l’abitudine dell’IA generativa di “allucinare” fatti – o, più crudamente, di inventare cose – hanno anche scoraggiato le aziende dall’implementare la tecnologia. E molte start-up basate sull’IA, che promettevano di rivoluzionare vari settori, sono fallite sulla rampa di lancio con il rilascio di modelli di IA generativa sempre più capaci che hanno distrutto i loro modelli di business originali”.
I toni usati dal quotidiano peccano forse di eccessivo scetticismo ma è indubbio che ad avvantaggiarsi della febbre per l’IA sono state finora soprattutto le tech company in grado di offrire chip e infrastrutture di calcolo, oltre alle startup più promettenti che hanno saputo lanciare modelli generativi ad alto impatto (da OpenAI e Anthropic alla francese Mistral). Queste ultime peraltro ne hanno beneficiato per ora principalmente nel valore attribuitogli dal mercato che nei ricavi. OpenAI viene accreditata dagli investitori di un valore intorno a 100 miliardi di dollari a fronte di un fatturato che nell’anno fiscale in corso non andrà molto oltre il miliardo di dollari e di un conto economico ancora in pesante rosso (e che al momento si regge sulle multimiliardarie iniezioni di capitale di Microsoft).
I modelli di business di chi sviluppa l’IA generativa devono sfidare due ordini di ostacoli: da un lato, un mercato consumer abituato a usufruire di servizi digitali anche molto sofisticati in modalità gratuita, e dall’altro un mercato per le imprese a loro volta preoccupate da tutta una serie di rischi associati all’IA generativa (da quelli “classici” come cybersecurity e privacy a quelli nuovi come proprietà intellettuale e allucinazioni) e molto spesso poco in grado di sfruttarne al meglio i benefici. Per una serie di motivi, il primo dei quali in ordine di importanza è certamente la mancanza di competenze.
Le politiche digitali per le aziende
Una strategia nazionale IA di successo non può dunque limitarsi solo all’IA ma deve necessariamente allargarsi al contesto digitale nel quale operano cittadini e imprese. Come testimonia da molti anni a questa parte l’indice DESI attraverso la comparazione delle performance ICT degli Stati membri UE, l’Italia è fanalino di coda nelle competenze digitali sia avanzate che di base. Basti pensare che nel 2022 solo il 13,4% delle aziende con almeno dieci dipendenti poteva contare su specialisti ICT e solo il 19,3% ha previsto corsi di formazione ICT.
Il passaggio dal 4.0 al 5.0
In questo contesto, che in Italia più che in altri Paesi si compone di piccole e spesso piccolissime aziende, misure come i crediti fiscali per la formazione digitale, previsti fino al 2022 (la cosiddetta “formazione 4.0”), appaiono particolarmente rilevanti. Ma la riforma nel suo complesso degli incentivi alle imprese, con il passaggio da Transizione 4.0 a Transizione 5.0, sarà una cartina di tornasole importante. Dopo i tanti annunci del 2023, all’inizio del nuovo anno dovrebbe finalmente vedere la luce il nuovo assetto, dopo un lungo negoziato con la Commissione europea all’interno della revisione del PNRR recentemente approvata.
Il pericolo, recentemente evocato, è che, sommando la transizione ecologica e l’efficienza energetica a un paradigma 4.0 non ancora sufficientemente consolidato, non si faccia il bene di nessuna delle due transizioni e soprattutto della competitività nazionale, che dovrebbe essere la principale beneficiaria delle misure di sostegno. In un clima tecnologico soggetto a grandi mutamenti, gli imprenditori, soprattutto quelli più piccoli, andrebbero supportati non solo e forse neppure principalmente con benefici monetari per comprare hardware o software bensì con un plus di competenze di cui non dispongono per poter effettuare gli investimenti più adatti alla propria situazione.
Ecco il razionale di misure come i voucher per l’acquisto di servizi di consulenza per l’innovazione da soggetti accreditati, a partire da un audit 4.0 (o 5.0) su un benchmarking dello stato delle tecnologie in uso rispetto ai migliori competitor del proprio settore e un piano concreto per scalare il proprio livello tecnologico. In un quadro di questo tipo, gli incentivi monetari servirebbero ad accompagnare quel processo di effettiva crescita, personalizzato sugli effettivi bisogni delle aziende (anche grazie all’IA), e al contempo ad evitare investimenti poco utili a carico dello stato e/o delle imprese.
Conclusione
Sarà finalmente il 2024 l’anno nel quale si potrà compiere un salto culturale del genere nelle politiche per l’innovazione? Più di qualche dubbio purtroppo lo conserviamo, anche per i tanti vincoli esterni e interni al bilancio dello Stato e alla capacità delle amministrazioni pubbliche di poter ragionare in questi termini. Anche se, trovandoci all’inizio di un nuovo anno, non siamo ancora pronti ad azzerare le speranze. Sperando siano raccolte se non oggi almeno in un domani non troppo lontano.