La ratifica dell’AI Act è a rischio. E la colpa è proprio dell’IA generativa, quella più di moda ora, collegata a larga language models o “modelli fondazionali”, dove l’Italia si è allineata all’idea di deregolamentarli, con Francia e Germania.
Questa proposta di legge cruciale per regolamentare l’intelligenza artificiale, basata su un approccio di gestione del rischio, sta ora infatti attraversando l’ultima fase del processo legislativo dell’Unione Europea e il 6 dicembre il trilogo affronterà la questione.
Le liti sui foundation model bloccano l’AI Act
I negoziati sono attualmente bloccati a causa di disaccordi sui foundation models[1], modelli avanzati di intelligenza artificiale che hanno dato vita a Chatgpt et similia. La presidenza spagnola aveva inizialmente proposto un approccio graduale – un po’ simile a quello americano, che sottopone a vigilanza e scrutinio i modelli più avanzati.
Ma rappresentanti di grandi paesi europei, come Francia, Germania e Italia, si sono opposti a qualsiasi forma di regolamentazione dei modelli di base, continuando a preferire l’approccio legato al rischio applicativo, tipico dell’AI Act e figlio del Gdpr.
L’ultimo incontro tecnico del 10 novembre 2023, oltre alle posizioni contrarie di alcuni paesi europei ha visto anche diverse aziende del settore opporsi fermamente al criterio proposto per la regolamentazione dei “modelli di base di grandi dimensioni”, ritenendo che l’attuale cornice normativa potesse seriamente compromettere l’innovazione e la competitività rispetto ai concorrenti internazionali. Tra le argomentazioni era forte la preoccupazione che tanto potesse tradursi in una sorta di “regolamentazione nel regolamento“, mettendo a repentaglio non solo l’innovazione bensì anche la concreta attuazione dell’approccio basato sul rischio cardine del Regolamento sull’intelligenza artificiale.
Le posizioni di Francia, Germania e Italia
Il Governo italiano ha firmato un accordo con Germania e Francia per deregolamentare i nuovi modelli. Germania e Francia difendono i propri campioni nazionali, che noi al momento non abbiamo.
Mistral, una start-up francese del settore, è stata tra i maggiori oppositori, con Cedric O, ex segretario di stato francese per il digitale, che sta attivamente sostenendo gli sforzi di lobbying di Mistral, confermando come l’implementazione delle attuali disposizioni sull’IA potrebbe portare al declino dell’azienda. Peraltro sarebbe questa anche una posizione coerente per la Francia che già in precedenza tramite Guillaume Avrin, coordinatore della strategia nazionale per l’intelligenza artificiale, aveva espresso a settembre la preferenza per una legislazione focalizzata sui sistemi anziché sui modelli. Visione supportata anche da Bruno Le Maire, ministro dell’Economia francese, il quale ha sottolineato l’importanza di regolare l’uso dell’intelligenza artificiale anziché concentrarsi sui prototipi.
Parallelamente, in Germania, la società leader nel settore dell’IA, Aleph Alpha che ha forti legami con l’establishment tedesco, insieme ad altre, non hanno nascosto il timore che la regolamentazione proposta dall’UE potesse metterle in svantaggio rispetto ai competitor statunitensi e cinesi.
L’oggetto del contendere
L’oggetto del contendere, i foundation models, come il GPT-4 di OpenAI sono centrali nello sviluppo di applicazioni di tecnologia avanzata. Esattamente, nell’ambito dell’intelligenza artificiale, si riferiscono a modelli di apprendimento automatico di base o di riferimento, ampiamente utilizzati come punto di partenza per sviluppare applicazioni più specifiche; proprio il termine “modello” si riporta a un insieme strutturato di algoritmi e parametri progettati per eseguire determinati compiti di apprendimento automatico.
A differenza dei modelli “generici”, progettati per compiti specifici, i foundation models vengono addestrati su enormi quantità di dati e presentano numerosi parametri. Questa caratteristica consente loro di svolgere una vasta gamma di compiti, superando così i modelli tradizionali. GPT-4, ad esempio, è la versione avanzata di un modello di linguaggio generativo, progettato per comprendere e generare testo in modo coerente e contestualmente rilevante. Modelli come GPT-4 sono potenti e possono essere impiegati in diverse applicazioni, tra cui, come noto, chatbot, traduzione automatica, sviluppo di testo creativo e molto altro.
In breve, un “foundation model” rappresenta dunque un tipo specifico e avanzato di modello di IA che funge da fondamenta o punto di partenza per lo sviluppo di sistemi più avanzati potenzialmente rischiosi o meno.
La proposta di compromesso del Governo spagnolo
La proposta, sostenuta dal governo spagnolo (che attualmente presiede i colloqui tra gli Stati membri nel Consiglio dell’UE), come parte degli sforzi per risolvere le discrepanze tra la versione della legge sull’IA approvata dal Consiglio il 6 dicembre 2022 e quella del Parlamento europeo il 14 giugno 2023, sostiene un approccio di tipo graduale e multi-livello, in linea con il pacchetto regolatorio DSA e DMA, prevedendo regole più severe per i modelli più potenti.
L’obiettivo era quello di delineare due percorsi distinti dove da un lato, per le IA ad alto impatto, veniva richiesta l’applicazione preventiva di specifiche disposizioni relative alla sicurezza informatica, alla trasparenza dei processi di addestramento e alla condivisione della documentazione tecnica prima dell’introduzione sul mercato; dall’altro lato, per i rimanenti foundation models, la normativa europea sull’intelligenza artificiale sarebbe divenuta applicabile solo al momento della commercializzazione dei prodotti da parte degli sviluppatori.
La soglia per la classificazione dei modelli più potenti
La soglia per la classificazione dei modelli più potenti era stata individuata in quelle versioni che avessero rivelato capacità e caratteristiche in grado di superare lo stato attuale dell’arte e che per tale motivo avrebbero necessitato di ulteriori valutazioni. Simili obblighi vennero suggeriti anche per i sistemi di intelligenza artificiale generici costruiti su modelli di base ampiamente utilizzati nell’UE: il governo spagnolo pensava ad un valore specifico, supponendo che questa categorizzazione potesse essere applicabile a entità con almeno 10.000 utenti aziendali o 45 milioni di utenti finali. OpenAI, Microsoft, Google e Meta, oltre a startup emergenti come Anthropic sarebbero state le prime ad essere soggette a questa eventuale stretta normativa.
Una documentazione machine readable
Non solo, per tutti i modelli base di grandi dimensioni, la documentazione associata avrebbe dovuto essere anche “machine readable”, ovvero le informazioni avrebbero dovuto presentarsi in un formato strutturato che potesse essere facilmente interpretato, elaborato o analizzato dal sistema informatico, senza richiedere un intervento umano significativo, allineando così le regole con quelle già proposte per i sistemi di IA ad alto rischio.
Questo, nelle intenzioni dei negoziatori, avrebbe potuto garantire una maggiore trasparenza nelle informazioni riguardanti i modelli e i sistemi di intelligenza artificiale generativa dato che, proprio nell’ambito dell’intelligenza artificiale, i modelli di machine learning spesso richiedono dati in formati machine-readable per addestrarsi ed eseguire determinati compiti. Nello specifico la documentazione avrebbe dovuto includere dettagli sulle capacità e i limiti del modello, nonché la registrazione dei dettagli del processo di formazione, il benchmarking e la fornitura di dettagli sui test.
La questione del diritto d’autore
Diverse disposizioni della proposta, destinate sempre ai modelli di base, erano relative all’applicazione delle norme sul diritto d’autore; ovvero i fornitori dei foundation models avrebbero dovuto dimostrare l’implementazione di misure per garantire che gli stessi fossero stati addestrati in conformità con la legge sul diritto d’autore. Inoltre, sempre i fornitori avrebbero dovuto garantire che gli utenti finali fossero preventivamente informati laddove avessero interagito con contenuti generati dall’intelligenza artificiale. In tal senso, l’adozione di specifici codici di condotta era vista come una possibile attività a sostegno dello scopo.
L’iter di approvazione dell’AI Act in stallo
Malgrado inizialmente era sembrato che un tale approccio potesse contribuire alla convergenza delle posizioni sia del Parlamento europeo che del Consiglio, rappresentante i governi dei 27 Stati membri dell’Unione Europea, tuttavia l’evolversi degli ultimi eventi, l’inasprimento delle singole posizioni[2] e soprattutto il prolungarsi della mancanza di un accordo sta rischiando, oggi, di compromettere l’intero svolgimento dell’iter di approvazione della legislazione in fieri, influenzando in senso negativo il ruolo stesso dell’UE nella governance globale dell’IA.
La situazione non è semplice, e gli sforzi per risolverla si stanno, non a caso, intensificando: le prossime riunioni dovrebbero proseguire al ritmo di circa due a settimana. Poiché molti dettagli devono ancora essere affrontati, Bruxelles organizzerà incontri di alto livello per l’intero mese di novembre, mirati a delineare in modo preciso gli obblighi dei sistemi di intelligenza artificiale e a identificare quelli a impatto elevato.
Il tempo, infatti, sta scadendo rapidamente. Con il 6 dicembre, fissato come data per l’ultimo trilogo di negoziazione tra Parlamento, Consiglio e Commissione sull’AI Act, diventa cruciale concludere le trattative in modo produttivo e definitivo.
La Ue prova a spianare la strada con l’AI Pact
La proposta di regolamentazione sull’IA dell’UE è stata presentata dalla Commissione Europea nel 2021, e l’adozione di regole chiare si è sin da subito rivelata cruciale per affrontare le sfide etiche e di sicurezza legate all’intelligenza artificiale.
Tutto lascia intendere che una delle prossime battaglie, in questa fase avanzata dei negoziati, si giocherà sul terreno dei foundation models dove l’individuazione degli standard per la valutazione rimane un lavoro in fieri, specie in mancanza di uno standard per gli audit, senza il quale sarebbe difficile misurare le prestazioni dei modelli in termini di danni intenzionali.
Nel frattempo, a Madrid dovrebbe tenersi presto un incontro pubblico durante il quale la Commissione presenterà l’AI Pact, un’iniziativa volta a facilitare la preparazione di imprese e aziende pubbliche all’adeguamento alle regole dell’AI Act. Dovrebbe essere presentata anche la piattaforma attraverso la quale gli operatori interessati potranno registrarsi in anticipo e procedere alle operazioni di conformità. Una sorta di compliance volontaria. Se così fosse, questo potrebbe rappresentare anche la possibilità di poter misurare quante organizzazioni saranno pronte ad adottare le nuove regole una volta che l’AI Act sarà effettivamente implementato.
Conclusioni
La presidenza spagnola è attualmente impegnata nella ricerca di una soluzione diciamo pure “creativa” per affrontare le persistenti divergenze riguardo alla regolamentazione dei modelli di base nell’AI Act. Le prossime riunioni tecniche saranno determinanti per trovare un terreno comune. L’obiettivo a breve termine è conciliare le posizioni del Parlamento, favorevole a regolamentare i modelli di base, e del Consiglio, che preferisce invece concentrarsi sui sistemi piuttosto che sui prototipi. Senza dimenticare le posizioni ostili della aziende del settore.
La prospettiva di un accordo appare sempre più incerta, e molti osservatori temono che la ricerca di un compromesso possa portare a una soluzione complessa e poco ambiziosa. In un contesto dove l’innovazione e la regolamentazione dell’IA sono cruciali per il futuro dell’Europa e oltre, il risultato di questo tentativo di equilibrismo rimane in relatà piuttosto instabile.
Note
[1]Ovvero modelli di apprendimento automatico (Machine Learning) di grandi dimensioni addestrati su una vasta quantità di dati (spesso tramite apprendimento auto-supervisionato o semi-supervisionato), e sui quali si possono costruire applicazioni
[2]I rappresentanti del Parlamento europeo hanno lasciato la riunione tecnica del 10 novembre.