intelligenza artificiale

Sviluppare l’IA in Europa, come fare: la nuova sfida dopo l’AI Act



Indirizzo copiato

L’AI Act è un passo importante nel cammino dell’Ue verso una regolamentazione completa dell’Intelligenza Artificiale. Nonostante le sfide, l’Europa si sta affermando come un attore significativo nell’IA generativa, con nuovi player che emergono sul panorama internazionale, ma occorre accelerare sugli investimenti

Pubblicato il 18 dic 2023

Stefano da Empoli

presidente dell’Istituto per la Competitività (I-Com)



intelligenza artificiale ai act

Il lungo quanto insolito rush negoziale sull’AI Act che si è concluso nella notte tra l’8 e il 9 dicembre con l’accordo provvisorio tra i co-legislatori ha certamente rappresentato un forte segnale politico dell’Unione europea.

Dopo aver proclamato ai quattro venti per anni di ambire al ruolo di principale regolatore mondiale sul tema e proprio nel momento in cui la tecnologia ha acquisito una centralità e anche un’attenzione mediatica senza precedenti non riuscire a trasformare le parole in fatti sarebbe stata una sconfitta troppo bruciante per le istituzioni UE.

Peraltro, nel momento più delicato, quello che tra pochi mesi porterà al loro rinnovo, a cominciare dalle elezioni del Parlamento del prossimo giugno. Ecco dunque giustificate le 38 ore di negoziato finale prima e durante il ponte dell’Immacolata così come le tante piccole e grandi incertezze che aleggiano sul testo finale che di fatto è ancora da scrivere nei dettagli e che se tutto andrà bene, dopo vari passaggi tutt’altro che scontati, tra i quali i voti del Consiglio e del Parlamento europei, diventerà ufficialmente legge solo verso la fine del primo semestre del 2024.

AI ACT, tempistiche lente di fronte alla veloce evoluzione delle tecnologie

I tempi rappresentano in effetti un primo elemento di perplessità e per certi versi di debolezza intrinseca di uno strumento come l’AI Act. Che sarà pienamente operativo solo dopo due anni dalla sua entrata in vigore, prevista 20 giorni dopo la pubblicazione sulla Gazzetta UE, dunque presumibilmente verso la metà del 2026. Anche se è prevista un’attuazione più rapida in alcuni casi.

Ad esempio, i divieti degli usi più rischiosi scatteranno dopo 6 mesi così come ci vorrà solo un anno (dunque di fatto un anno e mezzo da ora) per le norme riguardanti i sistemi di intelligenza artificiale a scopo generale (GPAI) e i modelli fondazionali, rappresentati per intenderci dai large language models (LLMs) come GPT-4 e l’appena rilasciato Gemini. Se pensiamo alla rapidità con la quale si evolve la tecnologia (pensiamo solo al fatto che ChatGPT, il cui successo ha innescato il boom dell’AI generativa, è stato lanciato solo un anno fa, per la precisione il 30 novembre 2022), queste tempistiche preoccupano non poco.

AI Pact, il patto con le aziende per anticipare l’adozione delle norme

Tanto da aver spinto la Commissione a promuovere il cosiddetto AI Pact mediante il quale le aziende possono decidere su base volontaria di applicare le norme contenute nell’AI Act prima della sua entrata in vigore. D’altronde, le tempistiche sono state in questo negoziato così come in tanti altri del passato materia stessa del contendere con il Parlamento che spingeva verso un’implementazione più veloce e Commissione e Consiglio, sui quali ricade l’attività di recepimento nonché di enforcement successivo delle norme, a insistere in direzione opposta.

La complessità della governance dell’AI Act

In effetti, svolgere i diversi adempimenti e mettere in piedi un sistema di governance efficace a livello europeo e nazionale non è attività banale (per le istituzioni pubbliche ma anche per i soggetti regolati ai quali occorre dare un orizzonte temporale minimo entro il quale adeguarsi). E anzi qualche ulteriore perplessità va spesa proprio su come l’accordo provvisorio abbia cambiato se non addirittura stravolto la governance inizialmente immaginata, moltiplicando e dunque complicando ulteriormente le attività preliminari che saranno necessarie per farsi trovare pronti ai blocchi di partenza. Un profilo che tra i tanti commentati in questi giorni, pur in assenza di un testo, è rimasto in secondo piano ma che invece sarà fondamentale per il successo del regolamento UE.

Una governance per tutti i gusti

Il testo iniziale dell’AI Act lasciava l’enforcement agli Stati membri ai quali spettava designare un’autorità delegata al proprio interno (già esistente o di nuova costituzione). Era però previsto a livello UE un AI board, nel quale erano rappresentati gli Stati membri, con alcuni poteri limitati prevalentemente di indirizzo. L’ingresso in scena dell’IA generativa, con i suoi sistemi GPAI, ha cambiato però le carte in tavola in maniera significativa, tanto da spingere i co-legislatori a definire un AI office interno alla Commissione europea, con tanto di risorse specializzate in grado di monitorare e prendere decisioni in materia.

All’AI office e all’AI board, che viene confermato pur apparendo leggermente depotenziato (con funzioni prevalentemente di coordinamento delle posizioni nazionali, da un lato, e consultive rispetto alla Commissione europea), si devono poi sommare un panel scientifico di esperti indipendenti che contribuirà a classificare e testare i modelli e a rilasciare allerte sui rischi di sistema e un forum consultivo di stakeholder che includerà i punti di vista dei diversi portatori d’interesse, dalle imprese ai rappresentanti della società civile e del mondo accademico.

L’organismo a questo punto più rilevante, l’AI office, sarà anche quello che sarà più urgente rendere operativo nell’immediato visto che le norme sui sistemi GPAI si applicheranno dopo un anno.

Il ruolo delle autorità nazionali

A questo quadro già piuttosto complesso si devono aggiungere le autorità nazionali che, a differenza di altre forme di regolamentazione nel settore digitale (pensiamo ai recenti DSA e DMA), potranno essere le più disparate. Alcuni Paesi, tra i quali proprio la Spagna che ha condotto le trattative nel suo semestre di presidenza del Consiglio, hanno deciso di istituire un soggetto ad hoc.

Altri, tra i quali probabilmente l’Italia, faranno affidamento a organismi esistenti (che tuttavia potrebbero andare da Agenzie per il digitale, di fatto espressione dei Governi, ad authority indipendenti quali i Garanti della Privacy).

Questa estrema eterogeneità dele scelte di governance nazionali, insieme agli atti delegati che nonostante l’AI Act sia un regolamento e dunque in teoria direttamente applicabile negli ordinamenti nazionali saranno assunti nei vari Stati membri, come già anticipato dal Ministro Urso e dal Sottosegretario Butti per l’Italia, di fatto renderanno difficile se non impossibile un’attuazione uniforme a livello europeo. Un vulnus evidente alla possibilità di creare un mercato interno dell’AI, base primaria di un ecosistema innovativo in grado di competere con il resto del mondo.

Il difficile compromesso sui modelli fondazionali

Lo stravolgimento degli assetti di governance riflette, come già detto, l’irruzione sulla scena legislativa dell’intelligenza artificiale generativa e dei suoi modelli. Che hanno messo in discussione l’approccio iniziale seguito dalla proposta della Commissione, basato sulla regolamentazione degli usi e non della tecnologia in quanto tale. O meglio hanno costretto i co-legislatori, a partire dalla versione emendata formulata dal Parlamento e approvata lo scorso giugno, a innestare un meccanismo geneticamente modificato su un corpo legislativo pensato secondo una filosofia generale totalmente diversa, congegnata per applicazioni verticali della tecnologia ma del tutto impreparata ad accogliere usi trasversali come per l’appunto nel caso dell’IA generativa e dei LLMs alla sua base.

Allo stesso tempo, pensare davvero di non includere questi modelli nel perimetro dell’IA Act sarebbe risultata una scelta politicamente e giuridicamente insostenibile, tanto più di fronte a un quadro internazionale, a partire da Stati Uniti e Cina, che si era già mosso velocemente in questo senso con l’executive order di Biden (e gli accordi volontari con le principali aziende tecnologiche) e il regolamento cinese ad hoc proprio su questo versante.

Piuttosto, oltre a non essere ben chiaro il livello di regolazione al quale saranno sottoposti i modelli fondazionali, in assenza di un testo consolidato, lascerebbe perplessi l’enunciazione nel testo del regolamento di parametri puntuali per qualificare modelli fondazionali ad alto impatto come sembrerebbe indicare l’accordo provvisorio. L’indicazione di una soglia quantitativa, pari a una capacità computazionale di 10 alla 25esima flop, non sarebbe troppo diversa da quella contenuta nell’executive order statunitense (10 alla 20esima flop).

Tuttavia, a parte che numeri simili produrrebbero obblighi e corrispondenti sanzioni (assenti nell’atto di Biden) ben differenti, è proprio la diversa natura dei due provvedimenti e la relativa facilità (o difficoltà) di aggiornarli ad evidenziare le possibili criticità applicative. L’executive order, infatti, può essere modificato o addirittura annullato con un provvedimento della stessa natura che il Presidente USA ha la piena discrezionalità di adottare in qualsiasi momento.

Modificare una legge UE, anche solo marginalmente, richiede uno sforzo che dura in media diversi anni e che deve passare attraverso la volontà congiunta di Commissione, Parlamento e Consiglio, dunque includendo i 27 governi degli Stati membri. Sarebbe dunque meglio delegare determinazioni tecniche come questa alla stessa Commissione (e dunque all’AI office in questo caso), in base a un meccanismo trasparente e partecipato (che includa possibilmente il parere degli esperti e degli stakeholder) certamente molto più snello rispetto a una procedura legislativa lunga e dagli esiti incerti. Anche perché, come già detto, la tecnologia evolve con una tale rapidità che non è detto che criteri fissati in un certo momento siano altrettanto o affatto rilevanti anche solo a distanza di pochi anni. In subordine, ci auguriamo che qualora siano pur sempre identificati parametri puntuali lo stesso AI Act possa delegarne alla Commissione l’eventuale modifica, disciplinandone la procedura.

Dopo le regole, ora vanno incentivati gli investimenti

Fatte le regole, occorrerebbe fare anche gli investimenti. Nella strategia AI della Commissione europea, presentata nell’aprile del 2018 e che ha dato il la al processo che ha portato all’AI Act, regole e investimenti rappresentavano i due piatti di una bilancia in sostanziale equilibrio. Ma mentre sul primo fronte si è lavorato molto, sul secondo si è progressivamente persa la spinta iniziale, messa nero su bianco a dicembre 2018 nel piano coordinato sull’IA, che descriveva in dettaglio le azioni da avviare nel 2019-2020, preparando il terreno per le attività da svolgere nell’attuale quadro finanziario pluriennale (2021-2027). Tra l’altro si prevedeva che il piano fosse rivisto e aggiornato annualmente, di comune accordo tra Bruxelles e le capitali nazionali. Un tentativo di ingegnerizzare il lavoro congiunto che Commissione e Stati membri avrebbero dovuto svolgere negli anni successivi e che però è stato a un certo punto interrotto, specie nell’ultimo biennio.

Questo ritardo sul fronte degli investimenti è confermato anche dai dati che ci vengono dall’OCSE e dall’AI Index dell’Università di Stanford. L’OCSE rileva in effetti un incremento significativo dei fondi affluiti alle startup europee, passati da 2,2 miliardi di dollari nel 2018 a 4,3 miliardi nel 2020 per poi spiccare il volo a 13,2 miliardi nel 2021 e a 15,7 nel 2022, prima di atterrare bruscamente a 6,1 miliardi di dollari nel 2023. Si tratta tuttavia di valori molto lontani da quelli americani, che da 33,8 miliardi di dollari nel 2018 sono saliti a un valore monstre di 114,4 miliardi nel 2021 prima di prendersi un anno di pausa nel 2022 con 57,2 miliardi per poi risalire nel 2023 a 67,3 miliardi di dollari.

Di fatto siamo ancora a un multiplo superiore a dieci, solo di poco diminuito rispetto al 2018 (e con un gap di molto aumentato in termini assoluti, che è poi il dato che conta di più). Si riduce invece, in termini sia relativi sia assoluti, il distacco dalla Cina, che ha registrato investimenti passati da 32,7 miliardi di dollari nel 2018 (praticamente alla pari con quelli statunitensi) a 14,9 miliardi di dollari nel 2023, dopo aver toccato un valore massimo di 49,2 miliardi nel 2021. Un calo da attribuire al venir meno di una parte significativa degli investimenti di fondi americani e all’esplosione di una vera e propria bolla dell’IA, che aveva portato molte startup cinesi a imbellettare in maniera a volte spregiudicata i propri business plan, anche quando nelle loro tecnologie c’era poca o nulla IA, per ricevere valutazioni migliori e aumentare le proprie chance di ricevere fondi privati o pubblici.

L’AI Index prodotto annualmente dall’Università di Stanford fornisce dati abbastanza simili (ma non coincidenti sia per metodologia sia per fonte) sugli investimenti privati (dunque di venture capital ma non solo) oltre una certa soglia quantitativa. Dati differenti danno luogo comunque a risultati abbastanza convergenti, almeno in termini relativi, con gli Stati Uniti che vedono gli investimenti privati crescere da 21 miliardi di dollari a 47,4 nel 2022, dopo aver toccato il record di 73,4 miliardi nel 2021, contro l’Unione europea (che però in questo caso include il Regno Unito) che passa nello stesso periodo da 2,74 miliardi di dollari a 11,04. Considerato che nel 2022 il Regno Unito attraeva 4,37 miliardi di dollari, il risultato per l’Unione europea è di 6,77 miliardi di dollari, sostanzialmente la metà della performance cinese (13,41 miliardi di dollari, in leggera diminuzione rispetto ai 13,96 miliardi del 2018).

Emergono nuovi player europei nell’IA generativa

Se si guarda alle startup europee dell’AI generativa che hanno già concluso un round di finanziamento il 36% fa capo al Regno Unito. Segue la Germania con un lontanissimo 13% e poi a seguire gli altri Paesi. Dei tredici unicorni censiti a maggio, 9 sono statunitensi, 2 canadesi, 1 a testa per Regno Unito e Israele.

Negli ultimi mesi sono però comparsi sulla scena principale alcuni player europei, a partire dalla francese Mistral che ha appena commercializzato Mixtral, un LLM open source che secondo i report tecnici supera in molti benchmark la performance di GPT 3.5, su cui si basava la prima versione di ChatGPT. Nell’ascesa di Mistral c’è anche una componente italiana perché per l’addestramento dei modelli si è avvalsa delle risorse di calcolo di Leonardo, il supercomputer del Cineca basato a Bologna. Dietro ci sono la tedesca Aleph Alpha e la francese kyutai, un laboratorio di ricerca non profit, che dunque replica OpenAI prima versione, con una dotazione iniziale di 300 milioni di euro, forniti da pesi massimi come Eric Schmidt, ex CEO di Google, e Xavier Niel, patron di Iliad.

Il ruolo delle telco negli investimenti in IA

E proprio dalle telco sembrano arrivare segnali interessanti. Non solo Iliad ma negli ultimi giorni anche Fastweb ha dichiarato di stare investendo in intelligenza artificiale, in infrastrutture dati ma anche in LLMs che vorrebbe sviluppare internamente in lingua italiana.

È probabilmente presto per dire se è l’inizio di un nuovo trend e soprattutto se questi investimenti saranno redditizi ma evidentemente la corsa all’oro dell’intelligenza artificiale, basata su un mix di infrastrutture e dati, attira gli appetiti di chi ha qualcosa da dire al riguardo e si è trovato a fronteggiare un mercato in rapido dimagrimento nell’ultimo decennio. D’altronde, in assenza di Big Tech europee, la nuova frontiera dei player europei dell’IA non può che venire da un mix di startup innovative e imprese di grandi dimensioni che decidono di investire su questo business. Magari aiutate da una regolamentazione non eccessivamente punitiva e al contempo armonizzata a livello europeo e da misure che aiutino gli investimenti. In mancanza dei quali le regole continueranno ad essere una condizione necessaria ma non sufficiente per la competitività dell’Europa nel settore.      

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3