L’Unione Europea ha introdotto l’AI Act per armonizzare le normative sull’intelligenza artificiale e prevenire la frammentazione del mercato interno. L’Italia, anticipando l’implementazione del Regolamento, ha presentato un disegno di legge che mira a introdurre alcune norme generali per l’uso dell’AI anche nel settore sanitario. Esaminiamo quindi i dettagli del DDL, le sue implicazioni per la ricerca e lo sviluppo in sanità, e come si bilanciano innovazione e protezione dei dati personali.
Contesto normativo e l’AI Act dell’Unione Europea
Una delle ragioni che hanno portato l’Unione Europea al varo del Regolamento UE sull’intelligenza artificiale (AI Act) è che normative nazionali divergenti potrebbero determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o usano sistemi di AI.
Sono espressamente esclusi dall’AI Act settori come la difesa e la sicurezza nazionale. Inoltre, in alcuni ambiti (come l’identificazione biometrica “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto o la prevenzione, l’indagine, l’accertamento e il perseguimento di reati) l’AI Act ha, sì, definito una linea, ma ha riconosciuto che sia utile un’integrazione su base nazionale.
Per sostenere l’innovazione, per rispettare la libertà della scienza e per non pregiudicare le attività di ricerca e sviluppo, l’art. 2 dell’AI Act esclude l’applicazione del Regolamento ai sistemi e ai modelli di AI specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici, ivi compresi i loro output.
Il disegno di legge italiano sull’AI in ambito sanitario
Recentemente, il nostro Governo ha presentato al Parlamento un disegno di legge (DDL) che, oltre a introdurre alcune norme generali negli ambiti rimessi sopra indicati in tutto o in parte agli Stati membri, ne detta altre in settori non espressamente affidati dall’AI Act al legislatore nazionale, fra cui l’ambito sanitario e della disabilità, la ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario, il fascicolo sanitario elettronico, i sistemi di sorveglianza nel settore sanitario, il governo della sanità digitale.
Temi, questi, per i quali l’AI ACT afferma che sarà lo spazio europeo dei dati sanitari (“EHDS”, recentemente approvato dal Parlamento UE) ad agevolare l’accesso non discriminatorio ai dati sanitari e l’addestramento di algoritmi di AI a partire da tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un’adeguata governance istituzionale. Tuttavia, il Regolamento EHDS sarà pubblicato nella Gazzetta Ufficiale dell’UE nell’autunno 2024 e diventerà operativo – a scaglioni – solo negli anni successivi.
IA e protezione dei dati personali, il Governo anticipa l’EHDS
L’uso dell’AI nell’assistenza sanitaria, nella ricerca sanitaria e nel governo sanitario da un lato è una priorità strategica, dall’altro comporta un trattamento su larga scala di dati sanitari e genetici. Visto che sul trattamento dei dati sanitari il GDPR ha definito alcuni principi generali, ma ha lasciato sovranità agli Stati membri, e considerato che di tale sovranità l’Italia ha fatto un uso cospicuo con il codice privacy del 2018, il Governo, in attesa dell’EHDS, ha deciso di iniziare a definire alcune interazioni fra normativa sull’intelligenza artificiale e disciplina a protezione dei dati personali. Questa scelta del Governo cade in una fase caratterizzata dalla necessità di implementare il PNRR, nel quale 50 milioni di euro sono stati destinati a un progetto pilota per i servizi di intelligenza artificiale a supporto dell’assistenza primaria, per verificare le opportunità e i rischi relativi all’implementazione di tali strumenti all’interno del SSN.
Articolo 8 del DDL: ricerca e AI in sanità
A seguire, ci concentreremo sull’attuale versione dell’art. 8 del DDL (ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario). Parliamo di “attuale versione” perché durante il percorso parlamentare la norma potrebbe essere emendata. L’obiettivo che ha indotto il Governo a scriverla è definire un perimetro di legittimità dell’uso dell’AI nella ricerca sanitaria che da un lato tenga conto del fatto che in questo ambito l’AI ha bisogno di nutrirsi di grandi quantità di dati sanitari disponibili, dall’altro superi alcuni “scogli” derivanti dalla attuale normativa italiana a protezione dei dati personali. Potremmo dire, quindi, che un titolo ancora più appropriato della norma sarebbe: “base giuridica per il trattamento di dati appartenenti a categorie particolari nella ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario”. Infatti, è questo il vero tema.
Nella versione del DDL presentata dal Governo, l’art. 8 serve anzitutto a qualificare come di «rilevante interesse pubblico» i trattamenti di dati personali (anche appartenenti a categorie particolari) svolti da soggetti pubblici e privati senza scopo di lucro a fini di ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità di prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente, salute pubblica, incolumità della persona, salute e sicurezza sanitaria, in quanto necessari ai fini della realizzazione e dell’utilizzazione di banche dati e modelli di base.
Base giuridica per il trattamento dei dati personali
La qualificazione di questi trattamenti come di «rilevante interesse pubblico» è tutt’altro che una petizione di principio; al contrario, serve a definire il regime giuridico sotto il profilo della protezione dei dati personali. Infatti, un trattamento di dati personali deve sempre essere sorretto da una base giuridica. Quando un trattamento di categorie particolari di dati personali (come i dati sanitari) è effettuato a fini di ricerca, le due basi giuridiche (alternative fra loro) fra cui gli Stati membri potevano fare una scelta di campo sono il consenso [art. 9.2, lettera a) del GDPR] oppure la necessità per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione Europea o degli Stati membri, che deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato [art. 9.2, lettera g) del GDPR].
Dichiarando che la base giuridica è il «rilevante interesse pubblico» e richiamando espressamente l’art. 32 della Costituzione e l’art. 9.2, lettera g) del GDPR, l’art. 8 del DDL intende dire che soggetti pubblici e soggetti privati senza scopo di lucro possono usare l’AI per la ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per le finalità sanitarie sopra elencate senza bisogno di chiedere il consenso degli interessati, cioè dei pazienti. Non va dimenticato che secondo l’EDPB e il nostro Garante, un consenso al trattamento dei dati personali in ambito ricerca è valido solo se riferito ad uno specifico progetto di ricerca. La scelta della base giuridica compiuta dal Governo appare corretta e realistica, giacché per essere addestrata l’AI ha bisogno di grandi quantitativi di dati (il che nella ricerca sanitaria significa grandi quantitativi di dati sanitari già disponibili). Rilasciare su base individuale l’informativa a tutti i pazienti cui questi dati sanitari sono riferibili e chiedere loro un consenso sarebbe molto complesso, se non impossibile.
Per rispettare l’art. 9.2, lettera g) del GDPR questa dichiarazione non basta: occorre che questo sia proporzionato alla finalità perseguita, e che ci siano norme che spieghino come viene rispettata l’essenza del diritto alla protezione dei dati personali e che definiscano misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato. Questi elementi aggiuntivi l’art. 8 del DDL non li contiene.
L’art. 2-sexies del codice privacy
Inoltre, abbiamo nel codice privacy una norma che è la “sede” della disciplina del Trattamento di categorie particolari di dati personali necessario per motivi di interesse pubblico rilevante: l’art. 2-sexies. Anche questo, al comma 1, conferma che questi trattamenti sono permessi che specifichino i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonché le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato. Inoltre, il comma 2 del medesimo articolo contiene un elenco di casistiche in cui si considera rilevante l’interesse pubblico relativo a trattamenti effettuati da soggetti che svolgono compiti di interesse pubblico o connessi all’esercizio di pubblici poteri. Idealmente, l’art. 8 del DDL aggiunge una voce all’elenco dell’art. 2-sexies, sia pure in sede differente.
Criticità e spunti del comma 2 dell’articolo 8
Senonché, l’art. 8 del DDL accomuna – sotto l’egida del «rilevante interesse pubblico» – soggetti pubblici (l’equivalente dei «soggetti che svolgono compiti di interesse pubblico o connessi all’esercizio di pubblici poteri» dell’art. 2-sexies del codice privacy) e i soggetti senza scopo di lucro. Categoria ampia e piuttosto indefinita, che sembrerebbe includere enti non profit quali associazioni e fondazioni.
Proseguiamo nell’analisi dell’art. 8 formulato dal Governo. Il comma 2 afferma testualmente che «ai medesimi fini, fermo restando l’obbligo di informativa dell’interessato che può essere assolto anche mediante messa a disposizione di un’informativa generale sul sito web del titolare del trattamento e senza ulteriore consenso dell’interessato ove inizialmente previsto dalla legge, è sempre autorizzato l’uso secondario di dati personali privi degli elementi identificativi diretti».
Per metà questo comma va un po’ oltre il GDPR, per altra metà contiene un’indicazione forse non necessaria. Va oltre perché il GDPR prevede, sì, un’informativa semplificata di tipo “collettivo” per trattamenti a fini di ricerca, ma solo per dati raccolti dal Titolare presso terzi; viceversa, qui potremmo avere sia casi in cui il soggetto che tratta i dati li ha ricevuti da un altro Titolare, sia casi in cui li ha ricevuti dall’interessato (nei quali, ai sensi del GDPR, dovrebbe informare individualmente l’interessato, giacché con lo stesso ha una relazione). L’indicazione forse non necessaria è che per l’uso secondario (o trattamento ulteriore) di dati raccolti ad altri scopi qui non occorre il consenso. Se la base giuridica del trattamento è il «rilevante interesse pubblico», un tema di richiesta del consenso non si pone.
Il ruolo dei soggetti senza scopo di lucro secondo l’articolo 8
Infine, al comma 3, l’art. 8 del DDL prevede un iter procedimentale per i soggetti pubblici e per i soggetti privati senza scopo di lucro che vogliano avvalersi di questo «rilevante interesse pubblico»: questi trattamenti devono essere oggetto di approvazione da parte dei comitati etici interessati e devono essere comunicati al Garante con l’indicazione del sistema di compliance messo a punto, dei ruoli e delle responsabilità dei soggetti coinvolti e della Valutazione d’impatto compiuta e possono essere iniziati decorsi 30 giorni dalla comunicazione (“silenzio-assenso”) se non vengono bloccati dal Garante. Questo meccanismo è un ibrido fra due diversi sistemi previsti dal codice privacy (all’art. 110) per chi fa ricerca medica, biomedica ed epidemiologica: il sistema per i soggetti pubblici (che, se il trattamento è previsto da un’apposita normativa, non prevede la richiesta di parere del Comitato Etico, ma la pubblicazione della Valutazione d’impatto sul sito del Titolare) e il sistema per i soggetti privati anche senza scopo di lucro (che, per i casi in cui la richiesta del consenso è impossibile o implica uno sforzo sproporzionato) prevede la fattibilità del trattamento se c’è parere favorevole del Comitato Etico, se viene fatta la Valutazione d’impatto (DPIA) e se vengono rispettate misure aggiuntive previste dal Garante (pubblicazione della DPIA e comunicazione al Garante.
Nonostante queste perplessità sui commi 2 e 3, è il comma 1 quello che forse denota una maggiore lontananza fra l’obiettivo (almeno apparente) del Governo e la soluzione normativa scelta. In particolare, ci riferiamo ai soggetti che, ai sensi del DDL, potranno fare ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per la sanità senza chiedere il consenso.
Saggiamente, il Governo ha compreso che nel campo della ricerca e sperimentazione scientifica nella realizzazione di sistemi di AI per finalità sanitarie non si può esonerare dalla richiesta del consenso al trattamento dei dati (sanitari) esclusivamente i soggetti pubblici, per due motivi:
A) i sistemi di AI devono attingere a una gran mole di referti, di immagini e di dati sanitari disponibili presso gli ospedali: informare tutti i pazienti, nonché chiedere il loro consenso, sarebbe sostanzialmente impossibile;
B) non è detto che il «rilevante interesse pubblico» sussista solo quando la ricerca sanitaria con AI è effettuata con fondi pubblici da soggetti pubblici. Per A), il Governo ha escluso la base giuridica del consenso; per B) ha allargato questa esclusione ai soggetti senza scopo di lucro, che viceversa non sono beneficiari del regime dettato dall’art. 2-sexies del codice privacy.
Proposte per migliorare l’articolo 8 del DDL
Tuttavia, ci pare che sul punto B) si potrebbe fare di meglio. Prima di esporre una possibile, diversa impostazione, è bene ricordare due elementi dell’evoluzione normativa in corso:
- In base al codice privacy, i soggetti privati con scopo di lucro che intendono effettuare ricerca e sperimentazione scientifica nella realizzazione di sistemi di AI per finalità sanitarie devono chiedere il consenso degli interessati. Essi possono fare a meno del consenso solo se – per un trattamento ulteriore di dati personali raccolti da terzi – dare l’informativa e chiedere il consenso risulta impossibile o implica uno sforzo sproporzionato, oppure rischia di rendere impossibile o di pregiudicare gravemente il conseguimento delle finalità della ricerca. Tuttavia, devono chiedere/ottenere un’autorizzazione del Garante, esponendo quali misure appropriate adotterebbero per tutelare i diritti, le libertà e i legittimi interessi, comprese forme preventive di minimizzazione e di anonimizzazione dei dati (art. 110-bis). Un eventuale silenzio del Garante equivale a diniego.
- In base al Regolamento EHDS (approvato, ma non ancora pubblicato nella Gazzetta Ufficiale), per l’uso secondario dei dati sanitari a fini di ricerca in ambito sanitario (svolto anche con sistemi di AI) non sarà necessaria la richiesta di consenso (i pazienti che non vorranno questo uso dei loro dati potranno esercitare un opt-out); anche i soggetti privati potranno beneficiare di questo regime, nel rispetto di un meccanismo di autorizzazione rilasciate da appositi organismi pubblici.
I limiti della categoria di “soggetti senza scopo di lucro”
Un primo limite della formulazione dell’art. 8 del DDL è la categoria di “soggetti senza scopo di lucro”. Esistono soggetti (gli IRCCS privati) non qualificabili come tali, pur essendo istituzionalmente dediti alla ricerca scientifica, nonché destinatari di finanziamenti statali e regionali finalizzati allo svolgimento dell’attività di ricerca relativa alle materie loro riconosciute. È vero che gli IRCCS sono già di fatto esonerati dalla richiesta del consenso per trattamenti a fini di ricerca e sperimentazione scientifica nella realizzazione di sistemi di AI per finalità sanitarie dall’art. 110-bis, comma 4 del codice privacy, secondo cui non costituisce trattamento ulteriore da parte di terzi (e non soggiace al meccanismo sopra descritto di richiesta di autorizzazione al Garante quando la richiesta del consenso agli interessati è impossibile o sproporzionata) il trattamento dei dati personali raccolti per l’attività clinica, a fini di ricerca, da parte degli IRCCS, pubblici e privati, in ragione del carattere strumentale dell’attività di assistenza sanitaria svolta dai predetti istituti rispetto alla ricerca. Tuttavia, per coerenza, sarebbe opportuna un’estensione dell’art. 8 anche a soggetti il cui statuto prevede il reinvestimento degli utili nelle attività di ricerca scientifica, anche in forma di partenariato pubblico-privato.
Implicazioni future per la ricerca AI in sanità
Più in generale, sarebbe preferibile un’applicabilità più ampia dell’art. 8 del DDL. Il «rilevante interesse pubblico» andrebbe riconosciuto (come detto) oltre che ai soggetti pubblici e ai soggetti privati senza scopo di lucro, anche ad altri soggetti il cui statuto prevede il reinvestimento degli utili nelle attività di ricerca scientifica. Inoltre, per tutte e tre le categorie bisognerebbe ammettere che la base giuridica per il trattamento dei dati personali (compresi i dati sanitari) rimane la stessa anche in caso di ricorso a forme di partenariato pubblico-privato. Ciò per due ragioni: i) le competenze manageriali nei soggetti pubblici non sono sempre attrezzate a gestire l’innovazione in sanità; ii) le risorse finanziarie pubbliche non sono sempre sufficienti.
Pur mantenendo fermo l’assunto per cui non può essere riconosciuto un «rilevante interesse pubblico» nell’operato di un soggetto che agisce per scopo di lucro, si potrebbe modificare l’art. 8 del DDL prevedendo che il «rilevante interesse pubblico» sussiste anche quando – per ricerca volta a realizzare sistemi di AI in sanità – i soggetti di cui sopra stipulano con soggetti privati con scopo di lucro un accordo di collaborazione che: i) garantisca l’apertura e la trasparenza dei risultati della ricerca (nel rispetto della proprietà intellettuale e del segreto commerciale), nonché l’accessibilità a condizioni eque; ii) definisca una co-titolarità ai sensi dell’art. 26 del GDPR fra soggetto pubblico od organismo di ricerca e soggetto privato con scopo di lucro. A queste condizioni, sarebbe possibile trattare dati sanitari per ricerca volta a realizzare sistemi di AI in sanità senza consenso degli interessati, fermi restando gli altri obblighi del GDPR (anzitutto, la Valutazione d’impatto).