Sanità e giustizia

Chi paga per l’algoritmo: le questioni ancora aperte su IA e responsabilità medica

Non esiste ad oggi una normativa dedicata alla responsabilità medica con utilizzo di IA ma l’applicazione delle leggi esistenti è inadeguata: definizioni, esempi, i soggetti in gioco, i presidi per la tutela preventiva

Pubblicato il 03 Ago 2022

Vera Daniele

avvocato e partner di LS Lexjus Sinacta

Giulia Gualandi

LS - Lexjus Sinacta

Anitec-Assinform: le tecnologie emergenti nella sanità digitale

Il crescente utilizzo di algoritmi, più o meno autonomi, nel campo sanitario, impone una riflessione: il diritto vigente è in grado di accogliere e declinare il tema della responsabilità medica (e della struttura sanitaria) alle nuove tecnologie o, invece, è necessario introdurre nuove fattispecie giuridiche, idonee a contemperare i ruoli di tutti i protagonisti della e-health?

Intelligenza Artificiale “spiegabile” a supporto dei pazienti: come funziona, benefici, sfide

Come il Consiglio di Stato ha definito “algoritmo automatico” e IA

Il Consiglio di Stato, con sentenza n. 7891 del 4 novembre 2021, si è cimentata con successo nell’individuare una definizione giuridica e distintiva tra “l’algoritmo automatico” e “l’intelligenza artificiale”.

I giudici di Palazzo Spada, aderendo alla definizione fornita dal giudice di prima cure, definiscono l’algoritmo come una sequenza definita di azioni. Nella sostanza, ad un input predefinito corrisponde ad un output definito.

Il Consiglio di Stato osserva ulteriormente, però, che “tale nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano”. L’inevitabile evoluzione della tradizionale nozione di algoritmo è l’utilizzo di impulsi automatizzati, funzionali alla semplificazione dell’attività umana.

Diversamente, quando l’algoritmo contempla l’utilizzo di meccanismi di machine learning, si dovrà parlare di intelligenza artificiale, ossia un sistema “che non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario, elabora nuovi criteri di interferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.

I criteri di “opaca” rielaborazione automatica dei dati mirano – estremizzando- all’assunzione di un’autonomia gestionale sostitutiva dell’attività umana.

Gradazioni di autonomia: i robot teleoperatori, autonomi, cognitivi

Occorre, preliminarmente, osservare che, ad oggi, non esiste una nozione (sia giuridica che tecnica) univoca di intelligenza artificiale.

I denominatori comuni dei tentativi definitori sono l’analisi della capacità della macchina di “percepire” l’ambiente e la capacità di “clonare” i processi di funzioni cognitive tipiche dell’uomo, come l’apprendimento e la risoluzione di problemi.

Si può azzardare una definizione di IA non come un corpus mechanicum, ma come un processo, integrato da un insieme di algoritmi, in grado di gestire ed elaborare dati, al fine di fornire delle risposte.

La gradazione di autonomia della macchina introduce poi un’ulteriore distinzione classificatoria tra “robot tele-operatori”, “robot autonomi” e “robot cognitivi”.

I robot tele-operatori (anche detti calculating machine) vengono definiti quali strumenti che assumono decisioni ottenute mediante calcoli algoritmici (algorithm-based decision) e integralmente dipendenti da input forniti dall’uomo.

I robot autonomi (o computing machine), invece, sono strumenti in grado di sviluppare gli input umani programmati dall’uomo – attraverso decisioni guidate da algoritmi (algorithm-driven decision) – ma i cui output vengono processati con una minima autonomia “decisionale” della macchina.

Infine, vi sono i robot cognitivi (ossia learning machine), ritenuti capaci di replicare comportamenti umani definibili “intelligenti”, quali esiti di processi digitali idonei a rendere la macchina completamente autonoma, senza alcun intervento umano (algorithm – determined decisions).

Speculare scriminante è l’attività di programmazione, nel primo caso mirata a recepire ed elaborare gli input umani, per svolgere un’attività, mentre nel terzo caso per imparare a svolgere l’attività.

L’IA nel settore sanitario: due esempi pratici

Il già consolidato e diffuso utilizzo dell’AI nel settore della sanità ha portato a coniare il termine “e-health”, al fine di perimetrare tutte quelle attività, quali operazioni chirurgiche “a distanza”, telemedicina, diagnosi e prevenzione, robotica riabilitativa e di assistenza, che impiegano le tecnologie informatiche.

Tutt’altro che consolidata, invece, la qualificazione giuridica del rapporto (e delle responsabilità) derivante dall’inevitabile contaminazione tra operatori sanitari e macchina, diversamente graduabile a seconda del livello di autonomia dell’algoritmo.

Utile, ai fini che ci occupano, analizzare il predetto rapporto uomo – macchina descrivendo due esempi pratici.

Il primo riguarda gli strumenti radiologici, in particolare di imaging, nei quali gli algoritmi, “addestrati” sulla base di dati di input già classificati dall’uomo (quindi, semi- autonomi), forniscono assistenza all’operatore sanitario, nell’attività di acquisizione delle immagini con definizione sempre più puntuale e precisa.

L’uomo programma l’algoritmo, attraverso l’inserimento di una memoria storica di immagini radiografiche (sia di persone sane che di pazienti affetti da patologie); l’attività dell’algoritmo consisterà nel comparare la nuova immagine radiografica con quelle memorizzate, selezionando, ai fini della diagnosi, quella maggiormente rispondente.

L’algoritmo, quindi, in questo caso compie un “percorso logico”, trasparente e conosciuto o conoscibile dall’operatore sanitario, utile a migliorare ed efficientare l’attività di quest’ultimo.

Diversa è la modalità operativa dei software di intelligenza artificiale, quale ad esempio quello utilizzato per valutare la densità del seno durante l’esame mammografico, quale utile indizio ai fini preventivi e diagnostici di eventuali patologie.

Trattasi, nel caso di specie, di una sofisticata tecnologia di “deep learning supervisionato con reti neurali convoluzionali”, in grado di imparare a svolgere in modo automatico compiti tipicamente affidati alla sola percezione visiva di operatori sanitari esperti.

Ulteriormente semplificando, a differenza dell’algoritmo utilizzato in radiologia, la cui essenza è la mera comparazione meccanica tra immagini “vecchie” e “nuove”, l’IA nel, caso di specie, compone i dati, li analizza, li valuta ed esprime un giudizio frutto di un ragionamento.

L’IA recepisce gli input inseriti dall’uomo (dati, esami, indici) e, attraverso un procedimento decisionale autonomo (c.d. reti neurali), genera un output che non richiede l’interpretazione dell’operatore. A differenza del professionista, però, l’esito del ragionamento della macchina non è decodificabile, essendo categorizzato da modelli predittivi “opachi”, in contrapposizione con i modelli “trasparenti” dell’algoritmo o della mente umana.

L’addestramento della macchina in questo caso, ha la finalità di fornire all’operatore una second opinion, ossia una diagnosi parallela a quella del tecnico, che si presuppone più minuziosa ed accurata.

Responsabilità sanitaria e IA: non esiste normativa dedicata

La responsabilità dell’operatore sanitario, nel caso di utilizzo dell’intelligenza artificiale, è oggi ancora un addentellato sconosciuto dell’irrisolto ginepraio di tentativi di applicazione degli istituti giuridici esistenti.

E ciò, con particolare riferimento all’individuazione del soggetto responsabile, del nesso causale tra danno ed evento e, conseguentemente, della ripartizione del danno.

Sicuramente i soggetti coinvolti e le responsabilità non potranno coincidere nel caso di robot eterodiretti e di quelli autonomi, così come l’individuazione dell’evento dannoso e del soggetto imputabile sarà differente a seconda dei percorsi predittivi “trasparenti” o di “black box”.

Fatta eccezione per la proposta di Regolamento Europeo sull’AI, non si rinviene ad oggi una normativa dedicata a tali strumenti ed alla regolamentazione delle responsabilità in ipotesi di evento dannoso.

A livello comunitario e nazionale, si assiste ad un tentativo di disciplina (disomogenea e non sempre coerente), caratterizzato dall’applicazione analogica di normative esistenti.

Ci si riferisce alla direttiva n.06/42/CE in tema di progettazione e costruzione delle macchine (che qualifica i robot quali artefatti meccanici), la direttiva n.01/95/CE, la decisione n. 786/2008/CE e il reg. n. 765/2008/CE in tema di sicurezza dei prodotti all’interno del mercato europeo, la direttiva 99/44/CE in tema di diritti e garanzie dei consumatori nella vendita dei beni di consumo ed infine la direttiva 83/374/CE in materia di responsabilità per danno da prodotti difettosi.

In tale contesto si dovrà collocare (derogandola? sostituendola? Integrandola?) la c.d. legge Gelli-Bianco (l. n. 24/2017), nella sua duplica declinazione di responsabilità ex contractu per quanto riguarda la struttura sanitaria e nel ben più articolato universo della responsabilità extracontrattuale (ex art.2043 c.c.), per quanto attiene all’operatore sanitario.

Sembra un matrimonio impossibile.

In primis, per la difficoltà di individuare un diretto nesso causale riconducibile ad un unico soggetto, stante la molteplicità dei protagonisti: struttura sanitaria proprietaria (o comunque responsabile della custodia) della macchina, il produttore del software, il programmatore e gli sviluppatori, le società addette alla verifica e manutenzione tecnica e, infine, l’operatore sanitario, quale utilizzatore della macchina.

Responsabilità medica e AI: i soggetti in gioco

Un primo passo in un tentativo di analisi potrebbe essere l’individuazione della tipologia e del quantum dell’apporto umano dalla nascita del software al suo utilizzo.

Per l’errore insito nella programmazione del software (o per errato inserimento umano o per errata rielaborazione dei dati) si dovrà coinvolgere il venditore/programmatore, come previsto dalla direttiva 85/374/CE.

In ipotesi di errore derivante dal mancato aggiornamento del sistema sarà necessario indagare l’imputazione della responsabilità in capo alla società incaricata della manutenzione ai sensi dell’art.1218 c.c.

Se, invece, la struttura sanitaria, ancorché compiutamente informata dal venditore della necessità di aggiornare e manutentare il software, non vi abbia provveduto, si potrà configurare la responsabilità dell’ente ex art.2051 c.c.

Qualora l’operatore sanitario (ancorché debitamente formato) non utilizzi correttamente la macchina o non interpreti correttamente gli output, lo stesso non potrà andare esente da responsabilità ex art. 2043 c.c.

Già da quanto sopra sinteticamente “semplificato”, emerge chiaramente la difficoltà di ricostruire ex post, in ipotesi di giudizio, la dinamica degli eventi fattuali e le relative responsabilità.

Responsabilità medica e AI: i due presidi per la tutela preventiva

In un’ottica di tutela preventiva, la cui valenza è fondamentale al fine di evitare lungaggini giudiziarie dall’esito incerto, non si potrà prescindere da due presidi fondamentali.

Il primo, integrato dalla necessaria sensibilizzazione e consapevolezza di tutti coloro che si interfacciano con l’intelligenza artificiale, attraverso l’informazione e la formazione del personale addetto.

Il secondo, forse ancor più rilevante, integrato da un’attenta negoziazione e rivisitazione della catena contrattuale dalla “produzione” della macchina alla sua manutenzione e utilizzo. Troppo spesso, infatti, i contratti aventi ad oggetto la fornitura e i servizi informatici, scontano un sinallagma fortemente sbilanciato a causa di un divario di competenze tra l’esperto informatico e l’utilizzatore.

Sarà, quindi, opportuno, in primis e per quanto possibile, individuare gli schemi operativi del sistema (come, peraltro, previsto dall’art.52, 1 comma della proposta di regolamento sull’intelligenza artificiale), che consentano una più chiara definizione di “chi fa che cosa”.

Proseguendo con lo scolastico esercizio di applicare l’assunto sopra esposto agli esempi riportati, inevitabile considerare che:

  • con riferimento all’utilizzo dello strumento radiologico, in ipotesi di contenzioso, attesa la trasparenza del procedimento, la “prevedibilità” dell’algoritmo e il suo controllo – ex ante ed ex post – da parte dell’uomo, sarà (quasi) agevole individuare la fonte generatrice del danno, a condizione però che l’intellegibilità del sistema e delle sue modalità di aggiornamento siano state tracciate nell’informativa contrattuale.
  • Viceversa, il grado di autonomia della macchina è inversamente proporzionale alle possibilità di individuare la fonte e l’imputazione dell’evento dannoso.

L’opacità della logica neurale, peraltro legittima, se considerata nell’ottica di tutela della privativa industriale, sfugge incolpevolmente al controllo anche degli stessi programmatori e, inevitabilmente, all’utilizzatore. Ipotizziamo il caso in cui il professionista suggerisca un intervento, sulla base di un rischio di patologia individuata dalla IA, poi rilevatasi errata o che, viceversa, il medico disattenda la second opinion della macchina, rivelatasi ex post, fondata.

Nel primo caso, attesa l’impossibilità di ricostruire il processo di elaborazione e ragionamento del deep learning, forse sarà opportuno orientarsi su ipotesi oggettive di responsabilità, quali quelle previste dagli artt. 2047, 2048 e 2050 c.c.; nel secondo caso vincerà “la macchina” a scapito dell’operatore, con fascinosa attrazione verso coloro che ipotizzano una personalità giuridica atipica, ma autonoma, della macchina.

L’onere della prova

Già il percorso giuridico sopra rappresentato appare pregno di ostacoli, ma diviene ancor più impervio se si affronta il tema dell’onere della prova.

L’accertamento della responsabilità extracontrattuale del medico, come oggi regolata, pone in capo al danneggiato (il paziente) l’onere della prova.

In particolare, nel caso in cui il paziente, offeso da malpractice, voglia far valere i propri diritti, dovrà provare sia l’evento dannoso, che il nesso causale tra la condotta del sanitario, nella sua materialità – e cioè a prescindere dalla negligenza – e l’evento dannoso.

Competerà poi al medico (o la struttura) fornire la prova “liberatoria”, dimostrando di aver adempiuto esattamente ai propri doveri giuridici ed etici, anche in conformità alle evidenze scientifiche delle linee guida ed ai principi di best practice.

Analizzata da entrambe le prospettive (paziente e operatore sanitario / struttura) l’onere della prova, in ipotesi di utilizzo di strumenti di intelligenza artificiale, assume i connotati di una probatio diabolica, soprattutto con riferimento all’elemento costitutivo del nesso causale.

Occorre forse ripensare, con nuove chiavi di lettura, anche alle attività defensionali, svolte a favore dell’una o dell’altra parte. L’avvocato non potrà prescindere dall’ausilio di un tecnico competente, ma ancor prima vi è da chiedersi se la sola richiesta (e dimissione in processo) della cartella clinica sia ex sé sufficiente ad assolvere l’onere probatorio gravante sul paziente o se sarà necessario anche acquisire o produrre la scheda tecnica dello strumento automatizzato (con obbligo o facoltà della struttura di fornirlo?) per poi estendere il giudizio, con la chiamata in causa, del programmatore piuttosto che del venditore.

Non meno complessa la prova liberatoria dell’operatore sanitario/struttura.

Sarà per questi sufficiente dimostrare la perfetta ottemperanza alle linee guide cliniche e scientifiche o la prova di compliance dovrà essere estesa all’utilizzo dello strumento computazionale, in conformità a manuali d’uso o codici di condotta?

E nella genetica e legittima impossibilità di rendere intellegibile il metodo di apprendimento nelle learning machine, quali connotati dovrà avere la prova liberatoria del produttore /sviluppatore chiamato in causa?

Conclusioni

Forse l’unica conclusione inconfutabile di questo scritto è la parziale o totale inadeguatezza degli istituti giuridici esistenti, al fine di gestire e risolvere le questioni sollevate in tema di responsabilità.

Sarà sicuramente necessario, come anzi scritto, un approccio che non demonizzi “la macchina”, ma che – attraverso una formazione e informazione adeguata – ne faciliti l’interazione con l’uomo, anche al fine di un consapevole controllo.

Ma forse questo non è sufficiente: forse sarà necessario pensare a nuove ipotesi di responsabilità e di imputazione del danno, sempre più prossime alla responsabilità oggettiva e sempre più lontane dai presupposti probatori dell’articolo 2043 c.c.

O forse occorrerà riconsiderare la visione non più così utopica di coloro che ipotizzato di risolvere il problema con una “salomonica” ripartizione del danno tra tutti i protagonisti, anche attraverso una predefinita quantificazione tabellare, risarcibile attraverso l’istituzione obbligatoria di un fondo ad hoc o garantita da forme assicurative obbligatorie.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati