L’IA in ambito sanitario può divenire un’alleata per il contrasto di malattie e la promozione di avanzate ricerche in ambito farmaceutico.
Se ne parla, tra le altre cose, nel report “DNAI” pubblicato recentemente da parte dell’Ada Lovelace Institute, noto istituto di ricerca britannico, e che illustra i trovati scientifici rispetto alle intersezioni tra Intelligenza Artificiale (IA) e genomica.
Il Regno Unito ha, difatti, stanziato una serie di importanti investimenti in questo campo per stimolare e promuovere la ricerca in ambito genomico, potenziata dall’IA. Pur non mancando le preoccupazioni di carattere scientifico, etico e giuridico, il risultato del report va nella direzione di supportare l’intersezione tra queste due discipline, finora studiate per lo più separatamente.
Le implicazioni sociali, politiche ed economiche della medicina predittiva
D’altro canto, è altresì urgente attivare una riflessione interdisciplinare circa le implicazioni sociali, politiche ed economiche della medicina predittiva basata sull’IA e su come il suo sviluppo possa essere indirizzato e governato in linea con i valori e le priorità pubbliche.
In questo ambito, come evidenziato nel report, l’IA può essere impiegata per combinare dati genomici con dati clinici, biologici e fenotipici per accelerare la scoperta di nuovi bersagli farmacologici e la ricerca di composti in grado di agire sui bersagli identificati. L’analisi dell’istituto britannico dimostra anche che le aziende che si occupano della scoperta di farmaci sono tra quelle che attualmente attraggono più finanziamenti e sono tra quelle che hanno raccolto più fondi fino ad oggi in tema IA. Un altro aspetto che l’IA può senz’altro migliorare è lo sviluppo della branca della medicina personalizzata, ossia l’uso dei dati genomici di un individuo per guidare le decisioni sull’individuazione, la prevenzione e il trattamento delle malattie. Si tratta di un argomento con implicazioni significative in termini di attività di ricerca, di tutela brevettuale e analisi etico-giuridica.
L’approccio basato sul rischio dell’UE: i limiti in ambito sanitario
L’Unione Europea, ben consapevole tanto dei rischi, quanto delle opportunità rappresentate dall’IA, nel nuovo Regolamento sull’IA, attualmente all’ultimo stadio del processo normativo, cerca di bilanciare regolazione e innovazione adottando un approccio basato sul rischio. La classificazione è stata già impiagata per altre norme, come nel caso del Reg. UE 2016/679 (GDPR). La proposta normativa sull’IA propone una classificazione basata sui rischi che un determinato sistema di IA può comportare per la salute, la sicurezza e i diritti fondamentali. A seconda della classe di rischio del “prodotto” di IA, il produttore deve rispettare requisiti di sicurezza diversi e progressivamente più stringenti.
Tuttavia, lo specifico utilizzo dell’IA nel settore sanitario non trova adeguato spazio all’interno dell’AI Act. Il progetto di relazione congiunta delle commissioni IMCO e LIBE del Parlamento europeo aveva suggerito di estendere l’elenco delle applicazioni ad alto rischio, tra gli altri, ai sistemi di IA utilizzati per il triage dei pazienti nel settore sanitario. La proposta è stata accolta solo in parte, giacché, allo stato, è possibile ritrovare nella classificazione di ‘alto rischio’ contenuta nell’Allegato III della proposta di Regolamento i seguenti sistemi di IA:
- Sistemi di intelligenza artificiale destinati a essere utilizzati da o per conto delle autorità pubbliche per valutare l’idoneità delle persone fisiche a beneficiare di prestazioni e servizi di assistenza pubblica, compresi i servizi sanitari e i servizi essenziali […];
- Sistemi di intelligenza artificiale destinati a valutare e classificare le chiamate di emergenza da parte di persone fisiche o a essere utilizzati per l’invio o per stabilire la priorità nell’invio di servizi di primo intervento di emergenza, compresi quelli della polizia e delle forze dell’ordine, dei vigili del fuoco e dei soccorsi medici, nonché dei sistemi di triage dei pazienti sanitari di emergenza.
Nessun riferimento è effettuato all’utilizzo di sistemi di IA nell’ambito della ricerca sanitaria.
Tuttavia, l’AI Act è solo una tessera di un puzzle ben più ampio. La sua applicabilità in ambito sanitario segue l’intreccio necessario con GDPR, per quel che riguarda i dati sanitari in generale, l’MDR, il Medical Device Regulation, e lo European Health Data Space. Quest’ultima è una proposta di Regolamento pubblicata recentemente dalla Commissione Europea che consentirà e regolerà l’uso secondario dei dati sanitari – compresi i dati provenienti da cartelle cliniche elettroniche, registri e dispositivi medici, nonché i dati relativi allo stile di vita delle persone fisiche.
L’AI Act, tuttavia, si riferisce esplicitamente solo all’MDR, affermando che, laddove per l’MDR alcuni sistemi devono essere sottoposti a una valutazione da parte di terzi, la norma speciale prevale sull’AI Act (Cons. 41a). L’MDR si basa sull’identificazione della “destinazione d’uso” del dispositivo, a seconda della quale questo potrebbe essere classificato come dispositivo medico o meno. In assenza di una destinazione d’uso predefinita, non è possibile individuare in quale classe di rischio rientra il dispositivo medico basato su IA, sia nell’MDR che nell’AI Act, alterando così il delicato equilibrio tra le due normative. Questo è dunque un aspetto che dovrà essere necessariamente chiarito in futuro e impone la massima trasparenza da parte dei programmatori di sistemi di IA.
La proposta di Direttiva: un ulteriore tassello
Non da ultimo, giova specificare che l’AI Act e l’MDR dovranno essere ulteriormente temperati, oltre che tenendo in considerazione le norme a tutela della protezione dei dati personali, alla luce della proposta di Direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale .
Il testo, ancora in forma di proposta, è attualmente in lettura presso il Consiglio dell’Unione Europea. Ad ogni modo, è possibile presumere che, giacché la norma adotta una presunzione di causalità, la Direttiva riterrà il produttore responsabile dei danni causati dall’IA ogniqualvolta sia possibile dimostrare la non conformità ai requisiti della normativa che regola l’IA.
Senza addentrarci nelle complessità della direttiva, possiamo solo offrire una breve riflessione. La proposta di direttiva sembra infatti rendere ancora più delicata rispetto al passato la posizione del produttore. Oltre ad essere sottoposti al requisito del Regolamento sull’IA di fornire una documentazione tecnica specifica che dipende fortemente dagli usi previsti del sistema di IA, in base alla direttiva sulla responsabilità dell’IA i produttori saranno ritenuti responsabili di qualsiasi danno, anche se non ad essi causalmente collegato, se non rispetteranno i requisiti imposti del Regolamento sull’IA.
Verso un’integrazione consapevole
Le proposte di ricerca che derivano dall’interazione tra IA e settore sanitario sono numerose e accattivanti, non solo dal lato delle imprese. È chiaro che questo processo di integrazione dei due mondi deve essere portato avanti nella consapevolezza dei rischi, quanto delle opportunità, nonché degli obblighi di compliance derivanti dai diversi testi normativi che sono già in vigore o diventeranno a breve applicabili in questo ambito.