L’intelligenza artificiale sta diventando sempre più protagonista anche nel settore della salute, ponendosi indubitabilmente tra le principali sfide della Sanità digitale. Ma quante e quali sfide sollevano questi strumenti? Al di là dei temi etici, sicuramente di grande rilievo in questo campo, vi sono numerose e concrete questioni di carattere regolatorio e legale che devono essere affrontate. Ecco un’analisi dello scenario attuale e degli ostacoli da superare affinché le nuove applicazioni possano realmente impattare positivamente sul paziente.
Pensiamo alle enormi potenzialità di software basati su AI come strumenti di supporto alla diagnosi e al trattamento delle patologie. Strumenti che aumentano giorno per giorno andando ad apprendere dall’esperienza e affinandosi costantemente. Ebbene, serve però predisporre processi atti a garantire la sicurezza e l’affidabilità di questi strumenti, la definizione delle responsabilità in caso di malfunzionamenti o “errori”, considerato che la stessa definizione di “errore” o malfunzionamento in questi casi può essere critica. Per non parlare dei delicati aspetti di protezione dei dati personali dei pazienti, dal momento che i dati rappresentano il combustibile che consente il funzionamento di questi sistemi.
Intelligenza artificiale e Salute, le sfide regolatorie
Dal punto di vista regolatorio, alcuni dei temi che si pongono in relazione ai software basati su IA sono comuni a quelli sollevati da qualsiasi software/app utilizzato in ambito medico, primo tra tutti quello della sua classificabilità come dispositivo medico e la dimostrazione della sua sicurezza e affidabilità.
Sembra evidente infatti che le tecnologie basate sull’intelligenza artificiale e sui sistemi di apprendimento automatico destinate ad essere utilizzate per una o più finalità mediche (ossia per trattare, diagnosticare, curare, mitigare o prevenire patologie) rientrano nella categoria dei software come dispositivi medici (Software as a medical device – SaMD). In particolare, sono considerati SaMD quei software utilizzabili per uno o più scopi medici senza essere parte di un dispositivo hardware, secondo la definizione data dall’International medical device regulators’ Forum.
Una volta definita la classificazione di un software come dispositivo medico, occorre poi la valutazione del suo livello di rischio per i pazienti, per capire quale tipo di studi e indagini devono essere condotti per dimostrare la sua sicurezza ed efficacia e quali approvazioni preventive deve conseguire per poter essere immesso sul mercato. Questi aspetti, come si diceva, sono comuni anche alle altre tipologie di software.
I SaMD basati su intelligenza artificiale si distinguono però da tutti gli altri SaMD per la loro capacità di apprendere continuamente dal mondo esterno e di migliorare, di conseguenza, le proprie prestazioni. Il fatto di essere strumenti “mobili”, in divenire, le cui capacità cambiano ed aumentano nel tempo solleva problematiche del tutto nuovo. Per questa innata capacità di evolversi, infatti, è possibile che un software non sia più quello originariamente approvato e richieda nuove valutazioni trascorso un certo periodo di tempo.
Dati sanitari, un tema centrale
Come accennato, il funzionamento di questi strumenti si basa sulla possibilità di utilizzare immense e sempre crescenti quantità di dati, circostanza che rende drammaticamente critiche le questioni inerenti alle modalità di raccolta, conservazione e condivisione di tali dati nel rispetto delle esigenze di protezione dei dati personali dei pazienti.
Tale caratteristica rende anche particolarmente critico il tema della sicurezza di questi dispositivi, non soltanto nel senso più tradizionale del termine, ma anche in relazione alla loro capacità di resistere ad eventuali cyber-attacchi, proteggendo adeguatamente i dati che conservano, nonché – in taluni casi – la vita dei pazienti che li utilizzano.
Regolamentazione, primi passi negli Usa
Lo scorso 2 aprile 2019, la FDA ha pubblicato un discussion paper che descrive una proposta di cornice normativa per la regolamentazione delle modifiche apportate ai dispositivi medici basati sull’intelligenza artificiale già presenti sul mercato, in vista dell’elaborazione di future linee guida sul tema (Proposed regulatory framework for modifications to artificial intelligence/machine learning-based software as a medical device).
Tale discussion paper propone una modalità di gestione dal punto di vista regolatorio dell’aspetto più peculiare dei software basati su AI ossia la loro “mobilità”, come si è detto. In particolare, il documento propone che il fabbricante predisponga, ai fini dell’immissione in commercio del prodotto, un piano di controllo delle modifiche (predetermined change control plan) che includa le modifiche previste in ragione del continuo aggiornamento e riqualificazione del software e specifichi la metodologia utilizzata per realizzare tali modifiche in modo controllato, tale da gestire i rischi per i pazienti (Algorithm change protocol).
Eventuali cambiamenti dovuti all’adattamento del software agli stimoli provenienti dal mondo esterno vengono quindi considerati come modifiche al dispositivo medico. Laddove i cambiamenti concretizzati rientrassero nei limiti delle modifiche già approvate nel piano di controllo, il produttore sarebbe tenuto semplicemente a documentare il cambiamento apportato al software. In caso contrario, i produttori dovrebbero invece presentare una nuova richiesta di immissione in commercio alla FDA.
Sarà interessante vedere se tali proposte si tradurranno in effettive norme o linee guida e valutare la loro bontà alla prova dei fatti.
Regole e AI in sanità, come si muove l’Europa
In Europa, seppure il dibattito sull’intelligenza artificiale sia molto vivace e numerosi i documenti di discussione già pubblicati, non vi sono ancora concrete iniziative normative volte specificamente a disciplinare l’uso degli strumenti di AI in ambito medico.
Nei prossimi mesi diverranno applicabili i nuovi regolamenti europei sui dispositivi medici, che sostituiranno le norme nazionali fino a quel momento in vigore. Tali regolamenti forniscono norme molto più precise sulla regolamentazione di software classificabili come dispositivi medici, sulla loro differenziazione in base al livello di rischio per i pazienti e sui requisiti di progettazione che devono rispettare i fabbricanti al fine di tenere conto delle modalità con cui verranno utilizzati e del contesto in cui operano gli acquirenti. Tuttavia, neppure questi documenti affrontano le specificità che presentano i software basati sull’intelligenza artificiale.
Da un lato all’altro dell’oceano, si assiste dunque ad una fase di maturazione culturale e sempre maggiore comprensione del fenomeno dell’intelligenza artificiale, ma latita una regolamentazione organica delle sue manifestazioni concrete, che continuano a reggersi sulle norme esistenti, non sempre però adeguate a fornire la necessaria certezza agli operatori del settore. Il rischio è che questa paralisi normativa porti ad un considerevole rallentamento dello sviluppo delle enormi potenzialità di questi nuovi strumenti, soprattutto in un settore così critico come quello della salute.