legislazione ue

AI Act: ecco come regolerà l’intelligenza artificiale generativa



Indirizzo copiato

Il regolamento europeo sull’Intelligenza Artificiale ha concluso il suo cammino legislativo, introducendo una regolamentazione specifica per i “foundation model”, ora “General Purpose AI Model” (GPAI) ossia l’IA generativa. Questi modelli, fondamentali per lo sviluppo di sistemi AI vari, saranno soggetti a obblighi di trasparenza e valutazione del rischio, con una distinzione tra modelli generici e sistemici

Pubblicato il 6 feb 2024

Innocenzo Genna

giurista specializzato in diritto e policy europee del digitale



intelligenza artificiale ai act

Con la votazione in Coreper del 2 febbraio 2024 si è di fatto concluso il cammino legislativo del regolamento europeo sull’Intelligenza Artificiale (di seguito anche “AI Act”).

Benché manchino ancora alcuni importanti passaggi, in particolare l’approvazione da parte del Parlamento in plenaria (prevista in aprile) e la successiva pubblicazione dell’atto nella Gazzetta europea, con il voto favorevole degli Stati membri è venuta meno l’incertezza circa la possibilità che il testo potesse ancora essere soggetto a modifiche.

Il contesto legislativo del regolamento europeo sull’IA

Tale incertezza derivava dal fatto che l’accordo politico raggiunto dal Trilogo il 6 dicembre aveva lasciato alcuni Paesi insoddisfatti, in particolare Francia e Germania che avrebbero preferito, inter alia, una regolamentazione molto più leggera per i “foundation model” rispetto a quella raggiunta con il compromesso. Vi sono state quindi speculazioni circa la possibilità, inedita ma non impossibile, che nel Consiglio si formasse una minoranza di blocco (con almeno 4 paesi di cui 2 grandi) che rigettasse il testo, riaprendo così la procedura di Trilogo e rimandando l’approvazione finale dell’AI Act al successivo mandato europeo che inizierà a novembre, dopo le elezioni europee. L’approvazione all’unanimità dell’AI Act ha invece fatto diradato i dubbi ed ora si può ragionevolmente prevedere che il testo licenziato dagli Stati Membri verrà votato positivamente anche dal Parlamento europeo, senza alcuna modifica.

Perché tanta attenzione ai foundation model

E’ quindi possibile effettuare una valutazione preliminare su come il legislatore europeo abbia inteso regolare i “foundation model”, cioè i modelli informatici che, anche attraverso l’addestramento di una grande quantità di dati, possono essere utilizzati per la creazione di una pluralità di sistemi AI nel mercato downstream.

La capacità di servire una pluralità di scopi, nonchè la centralità rispetto al mercato in espansione di sistemi ed app basati sulla AI, hanno conferito ai foundation model un ruolo di specifica rilevanza nell’ambito del dibattito sull’AI. A ciò hanno contribuito anche le fortune dei foundation model che si sono affacciati al grande pubblico nel corso del 2022 (quando l’AI Act era appena entrato in negoziazione a Bruxelles), in particolare GPT di OpenAI ed a seguire i concorrenti più conosciuti (ad esempio LaMDA di Google).

La popolarità di tali modelli, i rischi loro connessi e la percezione che essi possono costituire uno step change nello sviluppo dell’intelligenza artificiale hanno stimolato attenzione e dibattito, fino a far diventare gli stessi foundation model un motivo di controversia istituzionale che avrebbe potuto far deragliare l’intero AI Act, nonostante l’accordo politico raggiunto con il Trilogo.

Denominazione e definizione dei “General Purpose AI Model”

I foundation model sono ora denominati dall’AI Act come “General Purpose AI Model” (“modelli GPAI”), ponendo fine ad una sovrapposizione di termini, provenienti sia dai legislatori che dalla ricerca, che stava generando confusione. Essi sono definiti come segue (art. 44b):

“GPAI model means an AI model, including when trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable to competently perform a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications. This does not cover AI models that are used before release on the market for research, development and prototyping activities”.

In sintesi, i modelli GPAI sono definiti come dei modelli informatici che, anche tramite l’allenamento su una vasta quantità di dati, possono essere usati per una varietà di compiti, singolarmente o inseriti come componenti in un sistema AI.

Le possibili obiezioni sulla definizione giuridica dei modelli GPAI

La definizione giuridica contenuta nell’AI Act non mancherà di sollevare commenti e obiezioni, se non addirittura ragioni per sollevare ricorsi in sede giurisdizionale (in particolare avanti la Corte UE). D’altra parte, si tratta di un settore dove rappresentare delle realtà tecnologiche attraverso delle semplici definizioni giuridiche è molto difficile. Una definizione più rigorosa avrebbe avuto come conseguenza l’esclusione di fattispecie potenzialmente rilevanti. La scelta del legislatore europeo è stata quindi quella di ampliare l’ambito potenziale di applicazione del regolamento, con ciò però scoprendo il fianco a coloro che accusano la UE di iper-regolamentazione.

Categorie di modelli GPAI: generici e sistemici

L’AI Act individua due categorie di modelli GPAI, generici e sistemici. Questi ultimi sono dei modelli che, in virtù dei rischi sistemici che possono provocare a livello europeo, sono soggetti ad una regolamentazione più pervasiva rispetto a quelli generici.

Francia e Germania, con un non-paper presentato nel novembre 2023, avevano proposto una sola categoria di foundation model, sostanzialmente soggetta all’autoregolamentazione degli operatori. Questo approccio si scontrava però con la posizione del Parlamento, favorevole invece ad una robusta regolamentazione.

La Commissione ha cercato perciò di mediare tra i due approcci, proponendo un sistema regolamentare “scalare” in cui gli obblighi di maggior peso sono riservati solo agli operatori ritenuti più “critici”. La distinzione tra modelli generici e sistemici è stata verosimilmente mutuata dal DSA, una normativa dove piattaforme e motori di ricerca di maggiori dimensioni (i cosiddetti VLOP e VLOSE) sono infatti soggetti ad una regolamentazione di maggior rigore in virtù dei rischi sistemici a loro connessi.

La designazione e la definizione dei GPAI models sistemici

Tuttavia, mentre nel caso del DSA la fissazione dei parametri (fatturato, numero utenti) per l’individuazione dei VLOP non è stata troppo problematica a fronte di realtà tecnologiche e di mercato ormai consolidate, la medesima valutazione è apparsa invece più problematica per l’AI Act, dove dimensioni ed impatto dei principali player tecnologici appaiono più sfuggenti, salvo che essi appartengono a gruppi già dominanti nel settore online o tecnologico.

Alla fine, l’AI ACT affida la designazione dei GPAI models sistemici ad una procedura gestita dalla sola Commissione, che agisce sulla base di criteri abbastanza vaghi indicati nel regolamento e che possono essere adeguati dalla stessa Commissione nel corso del tempo. In effetti, il rischio sistemico è definito con un testo un po’ tautologico (art. 3, 44d): “systemic risk at Union level’ means a risk that is specific to the high-impact capabilities of general-purpose AI models, having a significant impact on the internal market due to its reach, and with actual or reasonably foreseeable negative effects on public health, safety, public security, fundamental rights, or the society as a whole, that can be propagated at scale across the value chain”.

Il concetto di “high impact capabilities”

Che si tratti di tautologia lo si vede anche dal concetto di “high impact capabilities”, cioè la caratteristica più significativa per valutare se un modello GPAI sia sistemico o meno (art. 3,44c) : “‘high-impact capabilities’ in general purpose AI models means capabilities that match or exceed the capabilities recorded in the most advanced general purpose AI models”.

In altre parole, siamo in un campo in cui la Commissione, che ha il compito di individuare, attraverso l’AI Office, il GPAI model sistemico, disporrà di un potere altamente discrezionale e quindi dominante nell’ambito della governance complessiva dell’AI Act. Essa sarà in grado di condurre una vera e propria politica industriale, semplicemente decidendo quali GPAI possono essere designati come sistemici e quali no. Probabilmente non era possibile fare diversamente, poichè lasciare alla supervisione nazionale dei fenomeni tecnologici di livello europeo avrebbe portato a delle inefficienze, come possiamo al giorno d’oggi constatare con il GDPR allorquando si tratta di fare enforcement verso OTT paneuropei.

Il problema di di individuare e giustificare il rischio sistemico a livello UE

Il problema maggiore resta semmai quello di individuare e giustificare, nei casi concreti, il rischio sistemico a livello UE. L’AI Act indica anche un criterio quantitativo, basato sulla capacità computazionale del modello (art. 52a,2): “when the cumulative amount of compute used for its training measured in floating point operations (FLOPs) is greater than 10^25”.

Si tratta però di una semplice presunzione, che può essere superata sia in positivo che negativo, secondo la discrezione della stessa Commissione. D’altra parte, vi è convinzione diffusa che in futuro la potenza dei GPAI non dipenderà necessariamente dalla potenza di calcolo.

La regolamentazione dei modelli GPAI generici

I GPAI generici sono sostanzialmente soggetti (art. 52c) ad obblighi di trasparenza, consistenti nel garantire la disponibilità di documentazione tecnica che renda comprensibile il loro funzionamento (anche in relazione al processo di data training) all’AI Office così come ai terzi che intendano integrare il modello nei loro sistemi AI. Sarà inoltre necessario (art. 52ca) nominare un rappresentante nella UE autorizzato ad interfacciarsi con le autorità competenti. Si tratta di una regolamentazione ragionevole, che di per sè non dovrebbe costituire un rilevante ostacolo per lo sviluppo dei modelli GPAI, soprattutto in Europa.

La necessità di policy a tutela del diritto d’autore

Vi è inoltre l’obbligo di prevedere una policy mirante al rispetto della normativa sul diritto d’autore. Non è stata quindi presa una decisione definitiva se l’uso di dati soggetti a copyright possa comportare un obbligo di remunerazione dei detentori dei diritti, come richiesto a gran voce da alcuni di loro. Tale decisione dovrà essere presa in futuro nell’ambito di una possibile riflessione o revisione della normativa UE sul copyright. Al momento, si può però affermare che l’obbligo per i modelli GPAI di istituire una policy a questo scopo indica che il tema è degno di rilevanza.

Da notare che una regolamentazione più leggera è prevista nel caso di modelli GPAI con licenza libera ed aperta (art. 52c-2), salvo nel caso siano sistemici. Qualora quindi degli obblighi siano applicabili a delle fattispecie di open source, si pone il problema di individuare il soggetto obbligato, dato che a volte ci si trova di fronte ad una community più che a un provider specifico.

La regolamentazione dei GPAI models sistemici

I modelli GPAI sistemici sono soggetti, oltre che agli stessi obblighi dei GPAI models generici, ad ulteriori doveri che danno luogo, nel suo complesso, ad una regolamentazione più pervasiva. Essi infatti devono:

  • effettuare la valutazione del modello in conformità con protocolli e strumenti standardizzati che riflettono lo stato dell’arte, compresa la conduzione e la documentazione di “adversarial test” al fine di identificare e mitigare il rischio sistemico;
  • valutare e attenuare i possibili rischi sistemici a livello di Unione, comprese le relative fonti, che potrebbero derivare dallo sviluppo, dall’immissione sul mercato o dall’uso di modelli di IA di carattere generale con rischio sistemico;
  • tenere traccia, documentare e segnalare senza indebito ritardo all’AI Office, se del caso, alle autorità nazionali competenti, le informazioni pertinenti sugli incidenti gravi e le possibili misure correttive per affrontarli;
  • garantire un livello adeguato di protezione della cybersecurity relativamente al modello ed alla sua infrastruttura fisica.

Si tratta di una regolamentazione certamente importante ma che di per sè non sembra costituire un ostacolo decisivo allo sviluppo di foundation model in Europa, come invece paventato da alcuni governi europei, in particolare la Francia. Ovviamente, avrà rilievo come la Commissione valuterà tali obblighi. Ad esempio, in caso di “adversarial test” sarà rilevante la discrezionalità dell’AI Office nel considerare sufficiente il processo di test.

Per quanto riguarda gli incidenti di sicurezza, occorrerà capire se il modello GPAI dovrà essere in grado di riportare tutte le informazioni che riguardano i sistemi AI basati sullo stesso (trattandosi infatti di imprese normalmente diverse).

I codes of practice per i modelli GPAI

L’AI Act prevede (art. 52e) che, in attesa della pubblicazione di standard europei armonizzati, entrambe le categorie di modelli GPAI, generici e sistemici, possano basarsi su “codes of practice” per dimostrare il rispetto degli obblighi loro incombenti. Per “codes of practice” intendiamo dei documenti tecnici che riportano gli standard di un settore tecnologico. Il rispetto dei codici crea una mera presunzione di conformità agli obblighi dell’AI Act, non libera quindi i modelli in modo definitivo.

L’elaborazione dei codici da parte delle imprese sarà incoraggiata e supervisionata dall’AI Office, che si avvarrà anche della collaborazione del Board (quest’ultimo è l’organo dove siedono i rappresentanti degli Stati membri). Le autorità nazionali potranno essere coinvolte, come d’altra parte gli stakeholders e gli esperti del settore.

La validità dei codici non richiederà un’approvazione formale da parte dell’AI Office, benchè il sistema complessivo lascia intendere che, in caso di obiezione da parte di tale ufficio, il valore del codice sarebbe di fatto sminuito poiché, come evidenziato supra, esso fornisce una mera presunzione di conformità agli obblighi del regolamento, non una liberatoria assoluta. Dunque, affinché il codice espleti gli effetti desiderati dall’industria, e cioè una ragionevole sicurezza di essere conformi all’AI Act, di fatto sarà necessario il supporto dell’AI Office. E’ comunque possibile un’approvazione formale da parte dell’ufficio per rendere il codice valido in tutta l’Unione Europea. In questo caso è previsto un atto di implementazione della Commissione, da adottarsi con l’approvazione degli Stati membri. In proposito, l’AI Act rimanda all’art. 5 del regolamento europeo 182/2011 sulle procedure di comitologia.

La violazione dei codes of practices equivale a violazione degli obblighi del AI Act ed in quanto tale comporta l’irrogazione di sanzioni secondo un sistema misto (sanzioni in parte definite dallo stesso regolamento, in parte demandate allo Stato membro).

I GPAI models verticalmente integrati

Da notare che l’AI ACT disciplina in modo specifico (art. 63a1) i casi di integrazione verticale, cioè allorquando vi sia identità tra il provider del GPAI ed il provider del relativo sistema AI. In tal caso, l’AI Office opera come market surveillance authority, sostituendosi alla competenza delle autorità nazionali.

Il ruolo della Commissione europea nella gestione dei modelli GPAI

Indubbiamente la Commissione è riuscita a costruirsi un ruolo di assoluto rilievo nella gestione dei foundation model nell’ambito dell’AI ACT, essendosi fatta riconoscere, direttamente o tramite l’AI Office, delle competenza formidabili non solo in tema di regolamentazione ed enforcement, ma anche di vera e propria politica industriale del settore.

In particolare, la Commissione godrà di una competenza esclusiva, e di una larga discrezionalità, nella fase “esecutiva” del sistema, cioè nell’individuazione dei modelli GPAI sistemici. E’ questa probabilmente la fase che alcuni governi europei temevano di più, poiché a tale designazione segue automaticamente l’applicazione degli obblighi. Questi ultimi sono fissati dal regolamento, ma la Commissione avrà comunque un ruolo di rilievo nella fase di compliance attraverso la supervisione sui Codes of practice.

Un maggiore controllo da parte degli Stati membri è stato salvaguardato con riguardo all’adeguamento sia degli obblighi incombenti ai modelli in generale, sia sui parametri per la designazione dei modelli sistemici, che per la compliance (Codes of practice). L’AI Act rimanda infatti a degli atti, sia implementativi che delegati, che la Commissione può adottare sulla base di procedure che dovrebbero comportare un certo coinvolgimento da parte di Parlamento e Consiglio.

Conclusioni

In conclusione, il framework regolatorio europeo dei foundation model ricorda regimi analoghi a livello europeo dove quasi tutto è potenzialmente regolato o vietato, ma poi l’autorità competente ha il potere di sollevare gli operatori dagli obblighi specifici. Secondo alcuni esperti del settore questo sistema potrebbe spaventare gli investitori. Per la Commissione, che di fatto cumulerà un forte ruolo di politica industriale con quello di massima autorità di supervisione ed enforcement, si tratterà di una sfida formidabile.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3