Nei giorni scorsi è stato reso noto l’International AI Safety Report, il risultato del lavoro di 96 esperti sull’intelligenza artificiale nominati da 30 paesi, dall’OECD, dall’Unione Europea e dalle Nazioni Unite. Il panel è guidato da Yoshua Bengio, uno dei massimi esperti di IA, e nasce da un’iniziativa presa poco più di un anno fa nel Summit di Bletchley Park e proseguita con la presentazione di un rapporto intermedio a Seul nel maggio scorso. Il testo finale sarà formalmente discusso in occasione del Summit di Parigi sull’IA del 10 e 11 febbraio.
Non vogliamo qui esaminare in dettaglio il documento, che presenta punti di grande interesse e novità: vogliamo solo riproporre, alla luce delle sue conclusioni, alcune considerazioni sui diversi modelli adottati per disciplinare l’intelligenza artificiale.
Indice degli argomenti
Dubbi sull’approccio normativo europeo all’AI
La posizione da noi condivisa è quella di coloro che, sempre più numerosi, ritengono non idoneo l’approccio normativo dell’Unione Europea fondato, come ampiamente noto, su di una regolamentazione puntuale e stringente basata sul principio del rischio. Non vogliamo qui ripetere quanto più volte detto sul tema, ricordando solo come altri paesi, a cominciare dal Regno Unito e dagli Stati Uniti, stiano invece seguendo un percorso fatto di strumenti di soft law, di autoregolazione da parte degli stakeholders, di incentivi, di un uso innovativo delle norme già vigenti.
Un sistema di normazione lento e complicato
La principale critica avanzata al modello europeo è quella di aver scelto un sistema di normazione tradizionale, lento e complicato, non idoneo ad accompagnare gli sviluppi di una tecnologia capace di sovvertire nel corso di pochi giorni, come anche recentemente accaduto, le certezze acquisite. La “forma” della normazione primaria scelta dall’Unione non sembra capace di prevedere, e tanto meno di guidare, gli sviluppi tecnologici dell’intelligenza artificiale, nonostante la previsione di istituti, come l’AI Pact, che dovrebbero favorire il rapporto tra le istituzioni e i diversi soggetti interessati.
Un approccio privo di visione
Ricordo che il primo rilevante passaggio nel processo di disciplina europeo, conclusosi con la sua entrata in vigore il 1 agosto 2024, risale all’aprile del 2018 (un processo normativo durato più di sei anni!), quando la Commissione, accogliendo l’invito del Consiglio Europeo a definire una linea comune sull’IA, ipotizzò un approccio che ponesse “i cittadini al centro dello sviluppo dell’IA (una IA umanocentrica) e incoraggiasse l’uso di questa tecnologia per aiutare a risolvere le maggiori crisi mondiali”.
Come si vede un atteggiamento fortemente strumentale e difensivo, privo di una chiara visione del carattere dirompente e non convenzionale del nuovo mezzo, più preoccupato dei rischi che delle opportunità. Un approccio che in questi sette anni si è mostrato non pienamente idoneo a seguire, nel lungo processo di normazione, lo sviluppo tecnologico e a disciplinarne in maniera efficace gli sviluppi: come nel caso, ad esempio, dei LLM e della General-Purpose Artificial Intelligence. Un limite di visione che ha accompagnato fino allo scorso anno le varie fasi di definizione delle norme, e che prosegue oggi in tutte le tappe di applicazione del regolamento, che lo scorso 2 febbraio ha visto l’entrata in vigore della disciplina sulle pratiche proibite e sull’alfabetizzazione informatica.
L’International AI Safety Report
Ma torniamo all’International AI Safety Report.
Le tre principali sezioni del rapporto approfondiscono le domande centrali cui si vuole dare risposta: cosa può fare l’intelligenza artificiale a finalità generali, l’oggetto “cuore” del rapporto stesso? Quali sono i rischi a essa associati? Come è possibile prevenire e mitigare tali rischi?
Tuttavia, prima di dare le sue risposte il rapporto, alla luce della riconosciuta velocità di crescita dell’IA, presenta nella parte iniziale un update sugli sviluppi più recenti dell’intelligenza artificiale, che aggiorna il rapporto stesso e ne integra le conclusioni: mostrando quindi piena comprensione del carattere continuamente innovativo, e non solo incrementale, dello sviluppo dell’IA. Su questo vogliamo qui soffermarci.
L’aggiornamento richiamato fa riferimento a un periodo assai limitato: dal 5 dicembre 2024, data di definizione del rapporto, allo scorso mese di gennaio. Un periodo che ha però visto cambiamenti rilevanti nel campo dell’IA. Li riportiamo brevemente, come indicati nell’update.
Gli sviluppi dell’AI di OpenAI e l’arrivo di DeepSeek
Cominciamo con OpenAI, che nel dicembre scorso ha reso noti i risultati del suo nuovo modello o3. Gli elementi forniti indicano che ci si trova davanti ad un prodotto che sembra aprire una strada completamente nuova nel campo del ragionamento astratto, ottenendo oggi risultati ritenuti prima dagli esperti raggiungibili solo tra diversi anni.
Agli inizi di gennaio è stato poi rilasciato dalla società cinese DeepSeek il modello R-1. Abbiamo qui prestazioni elevate superiori ad OpenAI o1 e a Meta Llama; un sistema di distribuzione aperto che consente di utilizzarlo e modificarlo senza restrizioni; con versioni “distillate” che lo rendono accessibile anche su dispositivi meno potenti; con costi incredibilmente inferiori rispetto ai più diretti concorrenti.
Queste novità, pur con i dubbi da molti sollevati rispetto a DeepSeek, mostrano la velocità e l’imprevedibilità dello sviluppo dell’IA, con conseguenze significative anche sull’impatto che potrebbe aversi sul mercato del lavoro, sul consumo energetico, sul controllo dei rischi e sulle capacità di difesa da attacchi cyber e biologici. Ponendo quindi ai legislatori sfide nuove ed ulteriori rispetto a quelle già indicate nel sia pur recentissimo rapporto: ed evidenziando ancora i limiti dell’approccio normativo europeo.
Cosa fare per governare una tecnologia così imprevedibile
Cosa possono allora fare i governi per disciplinare un fenomeno che ricorda il mitico Proteo, capace di cambiare continuamente forma prima di predire il futuro? Cosa può fare specialmente l’Europa, che si trova impastoiata in una normativa che, sotto il profilo dello sviluppo tecnologico, ha avuto inizio ere geologiche fa?
Non è certamente oggi proponibile un cambio radicale di prospettiva nella legislazione europea: troppo tempo e troppa energia è stata dedicata alla definizione delle norme vigenti, frutto di scontri e compromessi anche tra le istituzioni che hanno contribuito alla loro definizione. Diversi paesi inoltre, a cominciare dall’Italia, hanno predisposto proprie proposte normative nel solco di quelle dell’Unione e, seppur non ancora definite, non sembra possibile che esse si discostino in maniera significativa dalle linee guida tracciate dal regolamento europeo. Ancora, diverso è oggi il quadro politico dei rapporti all’interno e all’esterno dell’Unione: il che rende in questa fase assai problematica un’intesa su un tema ora più controverso che in passato.
Gli “orientamenti” della Commissione
Muovendoci quindi, pur con limiti evidenti, nel perimetro normativo esistente una strada potrebbe essere quella di ricorrere agli “orientamenti” della Commissione sull’attuazione del regolamento, di cui all’articolo 96; e alle deleghe richiamate nell’articolo 97.
Per quanto riguarda gli “orientamenti”, essi “tengono debitamente conto dello stato dell’arte generalmente riconosciuto in materia di IA” (art.96, comma 1, lettera f). La Commissione potrebbe quindi su diverse questioni esprimere indirizzi che orientino in modo diverso dall’attuale gli stakeholder, alla luce appunto dello sviluppo tecnologico e delle esigenze che si vanno manifestando.
Il potere di delega
Più rilevante è il potere di delega esercitabile, per un periodo di cinque anni a partire dal 1 agosto 2024, “dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per l’efficace applicazione del presente regolamento” (considerato n. 174). Le materie comprese nella delega e le procedure di adozione sono indicate nell’articolo 97, e abbracciano temi rilevanti che, ove affrontati, potrebbero portare a un significativo cambiamento della disciplina.
Il potere delle big tech in campo sociale e politico
Non è certo la soluzione ottimale, e si rimane nel quadro della scelta normativa vigente, ma una riflessione si rende necessaria anche in ragione dell’impulso dato alla ricerca, alla sperimentazione e all’uso dell’IA dalle grandi società tecnologiche il cui potere e la cui incidenza, anche sui processi politici, sono considerevolmente aumentati negli ultimi anni. Il rischio è quello di trovarsi in un prossimo futuro davanti a un sistema in cui la “non” regolamentazione, o l’insufficienza e la contraddittorietà di quella esistente lasciano ampio spazio alle Big Tech, l’influenza delle quali accrescerebbe il loro condizionamento, oggi già significativamente visibile, non solo sul mondo scientifico ma anche su quello sociale e politico. E le iniziative preannunciate dalla presidenza Trump su questo tema vanno valutate con grande attenzione e con un qualche allarme.
L’approccio che i governi adotteranno sulla normazione influenzerà lo sviluppo dell’intelligenza artificiale e la sua direzione. Il rischio è che la mancata consapevolezza della posta in gioco e una percepita incapacità decisionale, specialmente europea, ad affrontare le questioni dell’IA prima richiamate rendano le preoccupazioni sui suoi potenziali rischi drammaticamente attuali.