il confronto

AI Act e Gdpr, come si rapportano: “valutazione d’impatto” e DPIA



Indirizzo copiato

L’AI Act ha introdotto la Valutazione d’impatto sui diritti fondamentali (FRIA) sui sistemi ad alto rischio. Vediamo qual è il rapporto tra questa e un istituto del GDPR: la Valutazione d’impatto, obbligatoria per i trattamenti di dati personali che presentano rischi elevati per i diritti e le libertà delle persone fisiche

Pubblicato il 25 mar 2024

Diego Fulco

Direttore Scientifico Istituto Italiano per la privacy e la valorizzazione dei dati



Accuracy: come interpretarla dal GDPR all’AI Act
Accuracy: come interpretarla dal GDPR all’AI Act

L’AI Act è stato approvato definitivamente il 13 marzo 2024. Del nuovo regolamento, il primo regolamento globale sull’intelligenza artificiale (IA) in Europa si è già detto molto. Alcuni lo hanno salutato come un’eccellenza normativa europea. Altri – con buone ragioni – hanno fatto notare che è una disciplina concentrata su alcuni livelli del fenomeno (come i sistemi di AI ad alto rischio e l’AI generativa quando beneficia di un’immensa potenza computazionale), ma latitante su altri, pur cruciali (ad esempio il rapporto fra intelligenza artificiale e proprietà intellettuale). Inoltre, ha generato dubbi la sostanziale subordinazione dell’AI Act al GDPR.

A seguire, ci concentreremo su un nuovo adempimento – la Valutazione d’impatto sui diritti fondamentali (FRIA) – introdotto dalla parte dell’AI Act più strutturata e convincente: quella sui sistemi ad alto rischio, e ne indagheremo il rapporto con un istituto del GDPR: la Valutazione d’impatto, che è obbligatoria per i trattamenti di dati personali che presentano rischi elevati per i diritti e le libertà delle persone fisiche

Tecnica legislativa dell’AI Act: l’approccio basato sul rischio

L’AI Act è stato pensato prevedendo impatti normativi diversi a seconda della rischiosità dei sistemi.

A titolo esemplificativo e non esaustivo, sono ad alto rischio:

  • i sistemi destinati a essere utilizzati per determinare l’accesso, l’ammissione o l’assegnazione di persone fisiche agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli;
  • i sistemi destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l’ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica essenziali, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;
  • i sistemi destinati a valutare e classificare le chiamate di emergenza di persone fisiche o da utilizzare per l’invio o per stabilire la priorità nell’invio di servizi di primo intervento di emergenza, anche da parte di polizia, vigili del fuoco e soccorso sanitario, nonché i sistemi di triage sanitario di emergenza dei pazienti;
  • i sistemi destinati a valutare l’affidabilità creditizia di persone fisiche o a stabilire il loro punteggio di credito (eccetto quelli utilizzati allo scopo di individuare frodi finanziarie);
  • i sistemi destinati ad essere utilizzati per la valutazione del rischio e la determinazione dei prezzi in relazione alle persone fisiche nel caso dell’assicurazione sulla vita e sulla salute;
  • i sistemi destinati a essere usati dalle autorità pubbliche competenti o per loro conto per esaminare le domande di asilo, di visto e di permesso di soggiorno e i relativi reclami per quanto riguarda l’ammissibilità delle persone fisiche che richiedono tale status.

L’approccio basato sul rischio – caratterizzante l’AI Act– implica, a carico di produttori e sviluppatori dei sistemi di AI ad alto rischio, obblighi specifici in sede di progettazione, collaudo, monitoraggio, nonché responsabilità aggiuntive; impone altresì l’adozione di un vero e proprio sistema di gestione dei rischi, comprensivo dell’analisi e della gestione degli stessi, oltre che di un loro monitoraggio successivo all’immissione del sistema sul mercato. Altri obblighi riguardano la realizzazione di prove dei sistemi in condizioni reali, la validazione e il testing dei sistemi volti a garantirne la qualità, la tenuta e l’aggiornamento di documentazione tecnica, la registrazione automatica degli utilizzi del sistema, la trasparenza verso gli utenti e la loro formazione al corretto utilizzo del sistema, l’accuratezza, robustezza e cybersecurity, la supervisione umana, volta a comprendere le capacità e i limiti del sistema, a cogliere per tempo un eventuale eccessivo affidamento all’automazione, a interpretare e se del caso ignorare o ribaltare l’output dato dal sistema, ecc.

Il processo volto a dimostrare se – per ciascun sistema di AI ad alto rischio – sono stati soddisfatti tutti i requisiti definiti dall’AI Act è definito “Valutazione di conformità”.

La Valutazione d’impatto sui diritti fondamentali (FRIA)

La Valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment, o “FRIA”) non era presente nella proposta di AI Act presentata dalla Commissione UE. Essa è stata introdotta con appositi emendamenti dal Parlamento UE, e poi ricalibrata nell’accordo finale. La FRIA è un adempimento ulteriore e distinto dalla Valutazione di conformità. Essa non si limita alla verifica documentata dei requisiti previsti per i sistemi di AI ad alto rischio, ma comporta un’analisi più profonda della “posta in gioco” per i diritti fondamentali derivante dall’uso del sistema di AI ad alto rischio.

L’obbligo di svolgere la FRIA diventerà esecutivo 24 mesi dopo la pubblicazione dell’AI Act nella Gazzetta ufficiale dell’UE; dunque, nella primavera del 2026. Il rispetto dell’obbligo della FRIA sarà facilitato dall’Ufficio AI, che è stato incaricato di sviluppare un modello di questionario che gli operatori potranno utilizzare per soddisfare i requisiti pertinenti.

È l’AI Act stesso a chiarire che:

a) la FRIA dovrà essere effettuata solo per aspetti non coperti da altri obblighi, come la Valutazione d’impatto (DPIA) ai sensi dell’art. 35 del GDPR;

b) se uno qualsiasi degli obblighi relativi alla FRIA è già soddisfatto attraverso la Valutazione d’impatto (DPIA) condotta ai sensi dell’art. 35 del GDPR, la FRIA può o, meglio, deve essere effettuata congiuntamente alla DPIA.

Dunque, è importante mettere a confronto i due istituti, individuando e gli elementi di differenza e gli elementi che le accomunano.

Elementi che differenziano la FRIA dalla DPIA svolta ai sensi del GDPR

Una prima differenza fra FRIA e DPIA riguarda i destinatari dell’obbligo. La FRIA dovrà essere svolta solo da organismi di diritto pubblico, da soggetti privati che forniscono servizi pubblici e da operatori che erogano servizi bancari e assicurativi, questi solo per i sistemi indicati nel nostro elenco sopra alle lettere d) ed e). Inoltre, la FRIA deve essere svolta in ragione della natura del sistema e della sua riconducibilità ad un elenco “chiuso” di casistiche, di là dal fatto che lo stesso comporta un trattamento di dati personali. Vero è che, nella quasi totalità dei casi, i sistemi di AI ad alto rischio si nutrono di dati personali. Viceversa, ai sensi dell’art. 35 del GDPR, la DPIA è obbligatoria per tutti i Titolari di trattamenti di dati personali che possono presentare un rischio elevato per i diritti e le libertà delle persone fisiche, specialmente quelli che prevedono l’uso di nuove tecnologie. Mentre la FRIA va effettuata per un preciso e delimitato novero di sistemi, la DPIA va sicuramente effettuata in tre casistiche (valutazione sistematica e globale di aspetti personali relativi a persone fisiche, basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette persone fisiche; trattamento, su larga scala, di dati sensibili o di dati giudiziari; sorveglianza sistematica su larga scala di una zona accessibile al pubblico).

Di fatto, la DPIA è necessaria in qualsiasi caso in cui il Titolare, anche basandosi sulle indicazioni delle Linee Guida del Gruppo Europeo dei Garanti del 2017 (WP 248), comprenda di trovarsi di fronte a un trattamento che – considerati la natura, l’oggetto, il contesto e le finalità – può presentare un rischio elevato per i diritti e le libertà delle persone fisiche. Inoltre, la DPIA va effettuata per le tipologie di trattamento definite dalle Autorità di controllo. In Italia, tali tipologie sono state individuate dal Garante con provvedimento del dell’11 ottobre 2018, che include espressamente, al punto 7, i trattamenti effettuati attraverso l’uso di tecnologie innovative, anche con particolari misure di carattere organizzativo (es. sistemi di intelligenza artificiale) ogniqualvolta ricorra anche almeno un altro dei criteri individuati nel WP 248.

Una seconda differenza riguarda una parte dei contenuti. A seguire, indichiamo i capitoli della FRIA che coprono aspetti non previsti per la DPIA, ed i capitoli della DPIA non duplicati dall’AI Act per la FRIA. Dopo, invece, vedremo quali contenuti delle due Valutazioni sono sovrapponibili. Lato FRIA, gli argomenti che sarà obbligatorio affrontare non già coperti dalla DPIA sono: una descrizione dei processi dell’operatore in cui sarà utilizzato il sistema di IA ad alto rischio in linea con lo scopo previsto; una descrizione del periodo di tempo e della frequenza in cui si intende utilizzare ciascun sistema di IA ad alto rischio; le categorie di persone fisiche e gruppi che potrebbero essere interessati dal suo utilizzo nel contesto specifico, una descrizione dell’attuazione delle misure di controllo umano, secondo le istruzioni per l’uso. Lato DPIA, i contenuti obbligatori non previsti per la FRIA sono: una descrizione sistematica dei trattamenti di dati personali previsti e delle finalità del trattamento, compreso, ove applicabile, l’interesse legittimo perseguito dal Titolare del trattamento; una valutazione della necessità e proporzionalità dei trattamenti in relazione alle finalità.

Una terza differenza riguarda il modello da usare. Per la FRIA, l’AI Act prevede che l’Ufficio AI debba sviluppare un modello di questionario, anche attraverso uno strumento automatizzato, per facilitare gli operatori ad attuare l’obbligo; per la DPIA, alcune Autorità (come il CNIL, e il nostro Garante) hanno sviluppato un modello, che però non è vincolante e che, per la sua semplicità, non si presta a trattamenti complessi e rischiosi.

L’ultima differenza riguarda la destinazione del documento. La FRIA deve essere sempre consegnata all’autorità di vigilanza. Viceversa, la DPIA deve essere tenuta dal Titolare ed esibita solo in caso di richiesta o di controllo dell’Autorità, salvo un caso, disciplinato dall’art. 36 del GDPR: che l’esito della DPIA indichi che il trattamento presenterebbe un rischio elevato in assenza di misure adottate dal Titolare per attenuare il rischio. In questo caso, il Titolare deve consultare l’Autorità di controllo competente (in Italia, il Garante).

Elementi che accomunano la FRIA alla DPIA svolta ai sensi del GDPR

Un primo elemento che accomuna le due Valutazioni è di dover essere effettuate preventivamente: la FRIA prima di utilizzare il sistema di AI ad alto rischio, la DPIA prima di procedere al trattamento dei dati personali. Entrambe non devono essere reiterate automaticamente: la FRIA si applica al primo utilizzo del sistema di IA ad alto rischio; dopo di che l’operatore può, in casi simili, fare affidamento su FRIA precedentemente condotte o su FRIA già esistenti effettuate dal fornitore del sistema. Se, durante l’utilizzo del sistema di AI ad alto rischio, l’operatore ritiene che uno qualsiasi dei temi affrontati nella FRIA non sia più aggiornato, deve adottare le misure necessarie per aggiornare le informazioni. A sua volta, una singola DPIA può esaminare un insieme di trattamenti simili che presentano rischi elevati analoghi. In base all’art. 28 del GDPR, la DPIA è uno degli ambiti in cui il Responsabile (di solito, un fornitore di servizi, talora erogati su propri sistemi messi a disposizione del Titolare) assiste il Titolare. Infine, il Titolare procede se necessario a un riesame della DPIA quando insorgono variazioni del rischio rappresentato dalle attività relative al trattamento.

Un secondo elemento comune è legato a contenuti obbligatori che, pur non essendo sovrapponibili, sono connessi fra loro. In particolare, nella FRIA, l’analisi dei rischi specifici di danno che potrebbero incidere sulle categorie di persone o gruppi di persone individuati e la descrizione dell’attuazione delle misure di controllo umano, secondo le istruzioni per l’uso; nella DPIA, la valutazione dei rischi per i diritti e le libertà degli interessati e le misure previste per affrontare i rischi, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al GDPR, tenuto conto dei diritti e degli interessi legittimi degli interessati e delle altre persone in questione.

Di primo acchito, si potrebbe ritenere che la FRIA abbia una portata più ampia della DPIA, dovendosi occupare dell’impatto dei sistemi di AI ad alto rischio sulle categorie di persone fisiche e gruppi che potrebbero essere interessati dall’utilizzo del sistema nel contesto specifico, mentre la DPIA è focalizzata sull’impatto del trattamento a rischio elevato sulle persone cui si riferiscono i dati personali. In realtà, ci sono due elementi della DPIA così come disciplinata dall’art. 35 del GDPR che impongono, a maggior ragione quando la si effettua con riferimento a sistemi di intelligenza artificiale, di guardare più lontano. Anzitutto, la DPIA non indaga solo i rischi elevati che un trattamento può determinare per il diritto alla protezione dei dati personali, ma più in generale i rischi elevati, derivanti da quel trattamento, per tutti i diritti e tutte le libertà. Già ai sensi del GDPR, chi effettua una DPIA deve verificare se il trattamento con rischi elevati possa determinare, ad esempio, rischi per l’incolumità personale, per la reputazione, per la libertà di espressione, ecc. In secondo luogo, sarebbe riduttiva affermare che la DPIA deve occuparsi solo degli impatti sulle persone cui si riferiscono i dati personali oggetto di trattamento, giacché – come visto – il GDPR impone di tenere conto dei diritti e degli interessi legittimi sia degli interessati (persone cui si riferiscono i dati) sia delle altre persone in questione.

Presidio dei due adempimenti in sede sanzionatoria

Per il mancato o inesatto svolgimento della FRIA, così come per il mancato rispetto di requisiti per l’immissione in mercato o per la messa in servizio di sistemi di AI ad alto rischio, L’AI Act definisce delle soglie, ma affida agli Stati membri il compito di disciplinare le sanzioni, facendo sì che esse siano effettive, proporzionate e dissuasive. Ogni Stato membro dovrà comunicare le sanzioni previste alla Commissione UE.

Viceversa, per la DPIA, è il GDPR stesso a definire l’entità delle sanzioni, che ai sensi dell’art. 83 nel caso di mancato o inesatto svolgimento della stessa è fino a 10 000 000 euro, o per le imprese, fino al 2 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore. Il meccanismo di irrogazione delle sanzioni prevede un giudizio da parte dell’Autorità di controllo che tiene conto di un insieme articolato di parametri. Finora, nell’esperienza applicativa italiana, l’entità di sanzioni per mancato svolgimento della DPIA è stato generalmente inferiore ai 50.000 euro. Tuttavia, è bene ricordare che le casistiche ad oggi disponibili sono poche e che l’entità della sanzione è sempre commisurata alla forza economica del contravventore.

Conclusioni

Spesso, i sistemi di AI a alto rischio per cui sarà necessaria la FRIA implicheranno anche un trattamento di dati personali con rischi elevati e saranno soggetti all’obbligo di DPIA. Perciò, fin d’ora si può affermare che uno stesso ente, soggetto ad entrambi gli adempimenti, potrà essere sanzionato sia dall’Autorità competente in materia di AI per mancato o inesatto svolgimento della FRIA, sia dall’Autorità di controllo in materia di protezione dei dati personali (da noi, il Garante) per mancato o inesatto svolgimento della DPIA. Per quanto convergenti e cumulabili, le due valutazioni soggiacciono a criteri (e tutelano beni giuridici) diversi.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4