Si è concluso nei giorni scorsi a Parigi il Summit sull’intelligenza artificiale, che segue quelli di Bletchley Park del novembre 2023 e di Seul del maggio 2024.
I risultati appaiono a prima vista inferiori alle aspettative, o quantomeno ipotizzano un percorso non pienamente convincente in quanto non affrontano quello che, non solo a nostro avviso, costituisce uno dei limiti maggiori allo sviluppo dell’IA in Europa: un quadro normativo complesso, a volte oscuro, fortemente burocratizzato, di difficile attuazione e non condiviso da importanti player di quel mondo.
Indice degli argomenti
Iniziative positive annunciate durante l’AI action summit
Cominciamo però dai dati positivi. In concomitanza con il Summit, la presidente della Commissione Ursula von der Leyen ha dato notizia della costituzione di un fondo comunitario di 20 miliardi di euro per la promozione della ricerca nel campo della IA, che dovrebbe aggiungersi ai 150 miliardi già promessi da privati. Il fondo verrebbe a privilegiare la costruzione in Europa di quattro giga-factories, che dovrebbero costituire per l’IA quello che per la fisica avanzata rappresenta oggi il CERN di Ginevra.
Critiche e disaccordi internazionali
Veniamo alle note meno incoraggianti. l’undici febbraio il rappresentante americano J. D. Vance, vicepresidente degli Stati Uniti, ha abbandonato i lavori del Summit prima della loro conclusione non firmando la Dichiarazione finale e criticando nuovamente l’approccio normativo seguito dall’Unione Europea, ritenuto troppo regolatorio e limitativo per la ricerca scientifica e la collaborazione transatlantica. Criticando inoltre le aperture emerse nel Summit sui rapporti con la Cina ed il global south. Anche la Gran Bretagna non ha poi firmato la Dichiarazione finale.
Lo stesso presidente Macron, pur mostrandosi soddisfatto dei risultati del Summit, che ha tra l’altro visto un forte impegno dell’India nella fase organizzativa, ha dovuto ammettere in una intervista che “se regolamentiamo prima di innovare, non avremo alcuna innovazione”.
Il problema però, a nostro avviso, è che gli sviluppi recenti dell’intelligenza artificiale pongono il tema su un piano diverso dal mondo di Bletchley Park, di Seul e della stessa Parigi.
I progressi tecnologici della Cina e il cambio di paradigma
Come è noto, nel dicembre 2024, la società cinese DeepSeek ha lanciato sul mercato il suo modello R-1, non solo con prestazioni ritenute superiori a quelle di OpenAI o1 e Meta Llama ma, specialmente, con costi (per molti, incredibilmente) ridotti: quello per l’addestramento di un modello come, ad esempio, Llama 3.1 sarebbe passato da 61,6 milioni di dollari ad appena 6 milioni.
Non solo. Pochi giorni fa, come ricorda l’Economist, ricercatori della Stanford University e dell’Università dí Washington avrebbero addestrato il loro modello s1LLM per appena 6 dollari (6 dollari!). E invece dei 2,7 milioni di ore di computer time necessari per addestrare DeepSeek, il modello s1 avrebbe richiesto solo 7 ore.
Riflessioni sul progetto europeo e necessità di adattamento normativo
Lasciando da parte al momento i particolari tecnici, che secondo alcuni non renderebbero pienamente comparabili questi raffronti, vogliamo sottolineare il cambio di paradigma che sottintende i risultati ottenuti: non servirebbero oggi dati sempre più numerosi e mega infrastrutture costose ed energivore, bensì meno dati ma di qualità superiore, sia pure con tempi di elaborazione più lenti. Il che farebbe anche giustizia della conventional wisdom secondo la quale ci si starebbe avvicinando al punto in cui i dati disponibili non sarebbero più sufficienti per l’addestramento dei sistemi avanzati.
Queste considerazioni potrebbero gettare un ombra sulla validità del progetto europeo prima richiamato che, con un rilevante impegno economico ed energetico, vuole favorire la costruzione di quattro giga-factories: ma potrebbe al contempo costituire un vantaggio per un’Europa meno vincolata, nello sviluppo dell’IA, dai suoi costi.
Ciò però a condizione che venga rivisto il quadro normativo esistente, che procede invece inesorabilmente nel suo cammino regolatorio: pochi giorni fa sono entrate in vigore le nuove norme europee sulle pratiche proibite e sulla alfabetizzazione informatica, e nelle prossime settimane il Senato della Repubblica affronterà in aula il disegno di legge italiano sulla IA.
A proposito della problematicità del modello normativo europeo, ricordiamo che nel settembre 2024 società importanti come Meta, Apple, Anthropic e TikTok, insieme a numerose altre, si sono rifiutate di aderire all’AI Pact dell’Unione che, in ottemperanza alla legislazione attuale, vuole guidare su basi volontarie il periodo di passaggio che condurrà alla piena entrata in vigore del Regolamento Europeo.
La necessità di un quadro normativo più flessibile
I limiti e le restrizioni regolatorie del modello continentale sono stati più volte richiamati e non vogliamo qui riportarli. Vogliamo però sottolineare che gli inaspettati progressi tecnologici degli ultimi mesi, che l’attuale quadro normativo nella sua rigorosità non poteva certamente prevedere e guidare, richiedono una riflessione ulteriore sugli strumenti della governance complessiva del sistema, come oggi disciplinata nell’AI Act. Occorre poter contare su modelli più flessibili, fondati sul coinvolgimento di tutti i soggetti interessati, capaci certamente non di prevedere, ma quantomeno di seguire lo sviluppo tecnologico.
Criticità nei rapporti tra Europa, Usa e Cina
Un primo, sia pur limitato, passo potrebbe essere quello, ricordato in altra sede, di utilizzare alcuni strumenti già presenti nell’AI Act per adeguare almeno alcune norme troppo stringenti alle esigenze della nuova realtà. Faccio riferimento agli “orientamenti” di cui all’articolo 96 del Regolamento UE e alle “deleghe” richiamate dal successivo articolo 97: strumenti previsti appunto per meglio far corrispondere la normativa allo sviluppo tecnologico.
C’è però un ulteriore tema che è emerso nel corso del summit parigino. J. D. Vance (come ricordato, rappresentante degli Stati Uniti) ha fortemente criticato l’approccio europeo, ritenuto non solo eccessivamente costrittivo per produttori e utilizzatori, ma anche troppo “aperto” nei confronti della Cina. E la Cina ha infatti firmato la dichiarazione finale, diversamente dagli Stati Uniti e dalla Gran Bretagna che, come detto, non l’hanno invece accolta.
È quindi necessario che, da una parte, l’Europa definisca con chiarezza una sua posizione alla luce degli indirizzi assunti in questo campo dalla nuova amministrazione Trump. Ma, dall’altra, che gli Stati Uniti siano più disponibili a una collaborazione scientifica e commerciale con l’Unione basata sulla reciproca fiducia e non favoriscano anche qui misure protezionistiche: procedere divisi nella ricerca e nella normazione porterebbe acqua al mulino non solo di nazioni non amiche, ma anche delle Big Tech anarco-tecnologiche che puntano con decisione, e abbondanza di mezzi, a uno sviluppo libero e non costretto da norme. Poco interessate ai rischi che una crescita imprevedibile e non guidata dell’IA potrebbe comportare.