In attesa della piena applicabilità dell’AI Act i diversi attori, istituzionali e non, si stanno adoperando per redigere alcuni dei documenti che sono richiamati nello stesso AI Act e che andranno a fornire delle indicazioni utili ad agevolare la comprensione e il rispetto della normativa.
Infatti, l’AI Act richiama diversi documenti pensati per fornire delle indicazioni più di dettaglio rispetto alle disposizioni del Regolamento.
Tra questi si pensi, ad esempio, agli orientamenti della Commissione[1] che specificheranno l’attuazione pratica dell’articolo 6 dell’AI Act, relativo ai sistemi ad alto rischio, insieme a un elenco esaustivo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.
In un contesto così delineato, in linea con quanto disposto dall’art. 56 dell’AI Act, è stata pubblicata la prima bozza del “Codice di buone pratiche” relativo ai modelli di IA per finalità generali e ai modelli di IA per finalità generali con rischio sistemico (di seguito “Codice”). Il documento è stato scritto da un gruppo di esperti e si pone l’obiettivo di fornire indicazioni sulla conformità agli obblighi stabiliti negli Articoli 53 e 55 dell’AI Act.
Il codice di buone pratiche
Come dichiarato dai sottoscrittori del documento, il Codice è stato scritto tenendo in considerazione non solo l’AI Act ma anche le best practices esistenti e documenti internazionali quali, ad esempio, il Codice di Condotta del G7 e la Dichiarazione di Bletchley.
La stretta relazione con l’AI Act si evince anche dalla dichiarazione presente nel preambolo del Codice in cui è affermato che a meno che il contesto e la definizione contenuti nel Codice non indichino diversamente, i termini utilizzati si riferiscono a termini identici presenti nell’AI Act.
Inoltre, nel rispetto di quanto indicato dall’art. 56, paragrafo 4, dell’AI Act il Codice definisce gli obiettivi specifici e contiene delle misure, tra cui il riferimento a degli indicatori di prestazione, volti ad assicurare il conseguimento di tali obiettivi.
I 4 gruppi di lavoro coinvolti nella realizzazione del Codice
La bozza del Codice è stata realizzata attraverso il coinvolgimento di quattro gruppi di lavoro che si sono occupati di: regole relative alla trasparenza e al copyright; identificazione e valutazione del rischio per il rischio sistemico; mitigazione del rischio tecnico per il rischio sistemico; mitigazione del rischio di governance per il rischio sistemico.
I gruppi di lavoro hanno seguito i seguenti principi:
I. Allineamento con i Principi e i Valori dell’UE; per garantire il rispetto dei principi e dei valori generali dell’Unione, come sancito dal diritto dell’UE, inclusa la Carta dei Diritti Fondamentali dell’Unione Europea, il TUE e il TFUE.
II. Allineamento con l’AI Act e gli Approcci Internazionali; per contribuire a un’applicazione appropriata dell’AI Act, in conformità con quanto stabilito dall’art. 56 dell’AI Act.
III. Proporzionalità ai Rischi; per garantire che le misure e gli indicatori di prestazione siano proporzionati ai rischi in modo da essere adatti e necessari a raggiungere l’obiettivo desiderato, senza imporre oneri eccessivi.
IV. A prova di futuro; per assicurare che vi sia un equilibrio tra requisiti concreti e flessibilità per far sì che il documento sia al passo con l’evoluzione tecnologica.
V. Proporzionalità rispetto alla dimensione del fornitore di modelli di IA per finalità generali; per assicurare che le misure siano adeguate e proporzionate alla dimensione del fornitore di modelli di IA per finalità generali.
VI. Supporto e crescita dell’ecosistema di sicurezza dell’IA; per favorire una maggiore condivisione tra le parti interessate e cooperare nel rispetto dell’art. 56 e del Considerando 116 dell’AI Act.
Possibili benefici e aspettative
La bozza del Codice si pone in un contesto in cui i diversi attori si stanno attivando per arrivare pronti nel momento in cui le disposizioni dell’AI Act saranno applicabili. Nel caso specifico, riferendosi a modelli di IA per finalità generali e modelli di IA per finalità generali con rischio sistemico, è possibile che la platea di soggetti interessati dal Codice sia limitata, come del resto riconosciuto dallo stesso gruppo di esperti. In ogni caso, il documento potrà ricoprire un ruolo importante nel guidare lo sviluppo e l’implementazione futura di modelli di IA per finalità generali affidabili e sicuri.
Il Codice, seppur sia una prima bozza di alto livello con diversi punti aperti, rientra tra quei documenti autorevoli da tenere in considerazione nel momento in cui si affrontano temi legati ai modelli di IA per finalità generali.
Il gruppo di esperti riporta che prossimi passi includono delle discussioni e sessioni di stesura che si terranno fino ad aprile 2025 e, in linea con l’art. 56, paragrafo 9, dell’AI Act, il Codice sarà pronto al più tardi entro il 2 maggio 2025.
[1] Documento atteso entro il 2 febbraio 2026