ai act

Sistemi IA ad alto rischio: un labirinto normativo per i fornitori Ue



Indirizzo copiato

L’articolo 16 del Regolamento UE 24/1689 impone ai fornitori di sistemi di AI ad alto rischio numerosi obblighi di conformità. Questi includono gestione della qualità, tracciabilità e trasparenza, tra altri requisiti specifici. Sebbene garantiscano sicurezza, questi obblighi rappresentano una sfida complessa per i fornitori e i professionisti del settore

Pubblicato il 17 ott 2024

Massimo Borgobello

Avvocato a Udine, co-founder dello Studio Legale Associato BCBLaw, PHD e DPO Certificato 11697:2017



ai alto rischio (1)

Sui fornitori di sistemi di AI classificati come “ad alto rischio”, gravano una lunga serie di obblighi, elencati all’articolo 16 del Regolamento UE 24/1689, ma specificati lungo tutto il testo normativo.

Obblighi, come vedremo, assolutamente complessi e di difficile gestione: queste sono anche le ragioni della “tirata d’orecchi” fatta dall’ex Premier Mario Draghi all’UE.

L’articolo 16 dell’AI Act

L’articolo 16, rubricato “Obblighi dei fornitori dei sistemi di IA ad alto rischio”, dispone quanto segue.

“I fornitori dei sistemi di IA ad alto rischio:

a) garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui alla sezione 2;

b) indicano sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento, a seconda dei casi, il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l’indirizzo al quale possono essere contattati;

c) dispongono di un sistema di gestione della qualità conforme all’articolo 17;

d) conservano la documentazione di cui all’articolo 18;

e) quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio di cui all’articolo 19;

f) garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all’articolo 43 prima che sia immesso sul mercato o messo in servizio;

g) elaborano una dichiarazione di conformità UE a norma dell’articolo 47;

h) appongono la marcatura CE sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento per indicare la conformità al presente regolamento a norma dell’articolo 48;

i) rispettano gli obblighi di registrazione di cui all’articolo 49, paragrafo 1;

j) adottano le necessarie misure correttive e forniscono le informazioni necessarie in conformità dell’articolo 20;

k) su richiesta motivata di un’autorità nazionale competente, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui alla sezione 2;

l) garantiscono che il sistema di IA ad alto rischio sia conforme ai requisiti di accessibilità in conformità delle direttive (UE) 2016/2102 e (UE) 2019/882”.

L’articolo 16 apre la terza Sezione, elencando una serie di obblighi specificati sia negli articoli precedenti (la Sezione 2, articoli da 8 a 15) sia seguenti (da 17 a 20, 43 e da 47 a 49).

Un obbligo autonomo (previsto dalla lettera b) è la tracciabilità del fornitore con informazione scritta, finanche “sull’imballaggio” del sistema di IA: si tratta, né più, né meno di una scheda tecnica del prodotto, con la specifica indicazione dei dati del fornitore.

La lettera a): gli articoli da 8 a 15

La Sezione 2 contiene gli articoli da 8 a 15, nello specifico rubricati come segue:

  • Articolo 8 –  Conformità ai requisiti
  • Articolo 9 – Sistema di gestione dei rischi
  • Articolo 10 – Dati e governance dei dati
  • Articolo 11 – Documentazione tecnica
  • Articolo 12 – Conservazione delle registrazioni
  • Articolo 13 – Trasparenza e fornitura di informazioni ai deployer
  • Articolo 14 – Sorveglianza umana
  • Articolo 15 – Accuratezza, robustezza e cibersicurezza.

L’articolo 8 è “interlocutorio”, nel senso che pone le premesse al successivo articolo 9, imponendo la conformità ai requisiti previsti dagli articoli successivi ed all’armonizzazione della normativa europea prevista dall’Allegato I.

Si sancisce, inoltre, il principio dell’approccio basato sul rischio, una volta di più.

L’articolo 9 è più rilevante, e rende obbligatoria l’adozione di un sistema di gestione dei rischi connessi all’impiego di IA classificate come “ad altro rischio “, secondo lo schema di standard ISO e modello organizzativi di gestione introdotti, in Italia, con il Decreto legislativo 231/2001.

Il sistema deve essere istituito, attuato e documentato: deve, in altri termini, essere effettivo e non solo implementato: deve, in altri termini, “vivere”.

Lo strumento per effettuare questa operazione è l’analisi dei rischi, o risk assessment.

Una vera e propria check list per verificare quali siano i rischi e quali gli strumenti per limitare la probabilità di verificazione e le misure di mitigazione degli eventuali danni derivanti dalla verificazione degli stessi.

Per quanto riguarda l’articolo 10, si può dire che il legislatore europeo si è correttamente posto lo scrupolo di individuare nel data set utilizzato sia per il training dell’IA che per la generazione dell’output un elemento chiave della catena di utilizzo dell’IA.

I dati devono essere corretti, accurati e trasparenti e devono essere trattai nel pieno rispetto delle normative dul trattamento dei dati personali, GDPR e Direttiva 16/680 su tutte.

Trasparenza significa anche documentazione dell’attività svolta per il training, con possibilità di verificare gli eventuali errori (allucinazioni) dell’IA.

L’articolo 11 pone al fornitore di sistemi di IA ad alto rischio due distinti obblighi informativi: uno verso le autorità competenti, in termini di comunicazioni alle autorità competenti ed in termini di informativa ai terzi.

La documentazione tecnica deve essere redatta prima dell’immissione sul mercato del sistema di IA ad alto rischio.

L’articolo 12 impone l’obbligo di corretta gestione dei file di log degli utenti, con la finalità di consentire un controllo costante in real time ed eventualmente successivo dell’attività dell’IA .

Il paragrafo 3 pone i requisiti minimi della registrazione dei file di log per i sistemi che operano con la biometria remota.

L’articolo 13 impone il principio di trasparenza adeguata ai sistemi di IA ad alto rischio, determinando, per il fornitore, l’obbligo di consegnare al deployer un “manuale d’uso” in formato digitale e non.

E’ addirittura previsto un modello per interpretare i file di log di cui all’articolo 12: non è consentito, in altri termini, fornire un sistema di IA ad alto rischio “chiavi in mano” senza adeguata documentazione tecnica.

La documentazione deve essere completa, comprensibile e “utilizzabile” dal deployer: l’onere è , quindi, serio.

L’articolo 14 pone l’obbligo della sorveglianza umana.

Il principio del controllo umano nei processi decisionali automatizzati è già sancito dal GDPR all’articolo 22: naturale, quindi, che dovesse essere trasposto anche nell’AI Act.

La sorveglianza umana deve garantire che il sistema di IA non leda diritti fondamentali; deve essere costante ed effettuato da personale adeguatamente formato.

La finalità è limitare al minimo le conseguenze pregiudizievoli determinate dalle cosiddette distorsioni cognitive (“allucinazioni”) in cui l’IA può incorrere; tali evenienze devono essere adeguatamente messe in evidenza nell’analisi dei rischi.

Nel caso di IA utilizzata per il riconoscimento biometrico, la sorveglianza umana si esplica nel divieto di decisioni automatizzate senza previo controllo di personale dedicato.

L’articolo 15, infine, pone tre requisiti tecnici: accuratezza del sistema, robustezza e sicurezza informatica, come pilastri per l’IA ad alto rischio.

L’accuratezza consiste la corrispondenza e nella coerenza tra input ed output, con obbligo di dichiarazione delle relative metriche.

La robustezza del sistema consiste nella capacità di prevenire problematiche interne all’organizzazione, ossia errori, guasti, incongruenze, situazioni impreviste.

L’obbligo di prevenire imprevisti è imposto per gli utilizzi impropri del sistema di IA “prevedibili” secondo criteri di ragionevolezza e precauzione.

La robustezza è garantita da sistemi in grado di bloccare automaticamente le operazioni dell’IA in caso di output anomali; ciò deve essere garantito sia da sistemi automatizzati che da interventi umani.

La sicurezza informatica, peraltro, diventa un pilastro del sistema di IA ad alto rischio ed un requisito giuridico normativamente previsto, come peraltro già verificato con la Direttiva Nis 2 ed il Regolamento DORA.

La scelta del legislatore europeo è assolutamente coerente e corretta e riguarda la prevenzione, in particolare di alcune situazioni tipiche: il data poisoning, ossia il rischio di alterazione del data set dal quale l’IA determina l’output sulla base degli input, gli attacchi diretti e le interferenze interne.

Gli obblighi previsti dagli articoli da 17 a 20

L’articolo 17 è rubricato “Sistema di gestione della qualità”e pone come obbligo legislativo un sistema di gestione della conformità più che della qualità, perché il relativo standard ISO (9001/2015) chiarisce espressamente che la normativa volontaria non può essere finalizzata ad una conformità con la normativa cogente; che deve essere data per presupposta.

In ogni caso, l’articolo in esame prevede che vengano istituite strategie, politiche, procedure ed istruzioni documentate per la gestione della qualità del sistema di IA.

E’ previsto che venga monitorata la supply chain e che vi sia la chiara individuazione dei soggetti competenti e dei dirigenti (leadership).

Tutti questi requisiti trovano i propri corrispettivi nello standard ISO 9001: c’è da chiedersi, a questo punto, se lo stesso possa essere implementato per ottenere la conformità normativa all’AI Act.

In linea di principio, la risposta può essere affermativa, con l’unica postilla per cui un sistema di gestione della qualità che voglia ottenere anche la certificazione da un ente certificatore non può avere come finalità unicamente la conformità normativa, ma necessita anche di uno scopo di miglioramento continuo.

Da capire, quindi, se il sistema per la conformità all’articolo 17 sia la ISO 9001/2015 o non debbano, piuttosto, rivolgersi al sistema ISO 42001/2023, predisposto specificamente per l’IA.

Per quanto la norma 42001/2023 sia specifica e recente, la perfetta corrispondenza con quanto previsto dall’articolo 17 in particolare e dall’AI Act in generale è tutta da dimostrare, anche se configura, certamente, un ottimo punto di partenza e, se gestita bene, anche di arrivo.

L’articolo 17, comunque, non poe un obbligo di certificazione: il paragrafo 2, infatti, pone una clausola di proporzionalità, per cui il fornitore dovrà valutare gli adempimenti in base alla propria struttura; c’è, in altri termini, un parallelismo con l’accountability del GDPR.

L’articolo 18 è rubricato “Conservazione dei documenti” e pone un obbligo legale di conservazione della documentazione di dieci anni, specificando quali informazioni documentate devono essere conservate.

L’articolo 19 è rubricato “Log generati automaticamente” e si assimila al precedente per l’obbligo di mantenere informazioni documentate con riferimento ai file di log, con l’unica differenza di porre un termine generale di sei mesi, salvo diversa, più specifica, disciplina normativa.

Articolo 20 è rubricato “Misure correttive e dovere di informazione” e pone in capo ai fornitori di IA ad alto rischio l’obbligo di poter disabilitare il sistema in qualsiasi momento.

In casi estremi il sistema può dover essere disabilitato, richiamato dal commercio o addirittura ritirato.

E’ prevista una procedura di comunicazione simile a quella prevista per il data breach del GDPR.

Gli obblighi previsti dagli articoli 43 e da 47 a 49

L’articolo 43, è rubricato “Valutazione della conformità” e prevede la scelta, da parte del fornitore, delle modalità concrete per la valutazione di conformità; in generale, la procedura di cui all’Allegato VI o il ricorso all’intervento di un organismo notificato.

Quest’ultimo soggetto, ad oggi, non è ancora concretamente individuato: siamo di fronte ad uno dei fattori in itinere dell’AI Act.

L’articolo 47 è rubricato “Dichiarazione di conformità UE” ed ha la finalità di rendere trasparenti i sistemi di dichiarazione di conformità, con relativa assunzione di conformità del fornitore.

L’articolo 48, inoltre, conferisce alla Commissione il potere di adottare atti delegati conformemente all’articolo 97 al fine di modificare l’Allegato V aggiornando il contenuto della dichiarazione di conformità UE.

L’articolo 48 è rubricato “Marcatura CE” ed ha la finalità di rendere trasparenti i sistemi di dichiarazione di conformità, con relativa assunzione di conformità del fornitore.

L’articolo 48, inoltre, conferisce alla Commissione il potere di adottare atti delegati conformemente all’articolo 97 al fine di modificare l’allegato V aggiornando il contenuto della dichiarazione di conformità UE.

L’articolo 49 è rubricato “Registrazione” e pone un obbligo di registrazione dei sistemi di IA ad alto rischio per i fornitori.

La modalità concreta della registrazione è descritta nell’articolo in esame e prevede l’utilizzo di un registro elettronico appositamente impostato dall’Unione europea.

L’obbligo di registrazione è posto anche a carico dei fornitori che ritengano che il sistema di IA da immettere sul mercato non sia ad alto rischio.

La norma, quindi, pone un onere di “iscrizione” ad un “anagrafe” delle IA, finalizzato a tenere il mercato europeo delle IA sotto pieno controllo.

La scommessa dell’AI Act, tra sicurezza e sosteibilità industriale

Anche solo fare un elenco corretto, una check list delle attività di compliance è complicato ed oneroso, non solo per i fornitori di AI, ma anche per i professionisti incaricati di sostenerli.

Dall’altra parte, massima sicurezza garantita all’origine stessa dei sistemi di AI: una scommessa tra sicurezza e sostenibilità industriale.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4