La proposta di Direttiva

Risarcibilità dei danni dell’intelligenza artificiale, la svolta è vicina in Europa

Il 28 settembre la Ue ha pubblicato la proposta di Direttiva sulla responsabilità derivante da sistemi di IA: l’AI Liability Directive. Dovrebbe servire innanzitutto a garantire una maggiore certezza del diritto per le imprese, ma anche e soprattutto a dare garanzia di una tutela effettiva dei danneggiati. Vediamo come

Pubblicato il 20 Ott 2022

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Zakaria Sichi

Avvocato praticante, ‎Studio Legale Martorana

intelligenza artificiale pregiudizio

La risarcibilità dei danni derivanti dall’utilizzo di dispositivi di intelligenza artificiale è uno dei temi più controversi nel campo delle nuove tecnologie, tra lacune, inapplicabilità delle norme vigenti e problematiche interpretative. Ma una recente proposta della Commissione europea potrebbe condurre a una svolta.

The existing legal framework on civil liability (Anna Italiano)

The existing legal framework on civil liability (Anna Italiano)

Guarda questo video su YouTube

Intelligenza artificiale e adeguamento delle regole

Prendiamo il caso di un soggetto che acquista un dispositivo casalingo basato sull’intelligenza artificiale, e che questo provochi dei danni più o meno importanti all’impianto elettrico, ai mobili, ad altri elettrodomestici, e così via. Le normative vigenti sono idonee a coprire i consumatori dai danni causati dai dispositivi di intelligenza artificiale? Oppure dobbiamo prendere atto della necessità di aggiornare le nostre regole in modo da renderle adeguate allo scopo?

Bisogna partire dal principio per cui lo sviluppo tecnologico implica l’adeguamento delle regole a contesti in evoluzione, dove le norme del passato non sono sempre più insufficienti per governare il futuro.

Soprattutto in materia di tutela risarcitoria del consumatore per danni cagionati dall’AI, fino ad oggi si è cercato – con scarso successo – di reperire una disciplina applicabile tra le regole vigenti.

Le norme in tema di responsabilità civile nascono infatti per regolamentare le conseguenze del comportamento umano, di soggetti sensienti e capaci di prendere decisioni pienamente autonome. L’intelligenza artificiale è invece un oggetto, certamente molto avanzato, ma comunque uno strumento il cui funzionamento si basa sull’elaborazione grandi quantità di dati immessi dall’esterno. Pertanto, non solo presenta caratteristiche uniche e inedite, ma il ruolo dell’uomo è a vario titolo imprescindibile.

Oggi risulta quindi difficile imputare all’intelligenza artificiale una responsabilità giuridica per danni, rendendosi necessario individuare altre strade, con le relative ed inevitabili forzature.

Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa

L’ipotesi del Parlamento europeo

Un primo tentativo di individuare una disciplina applicabile alla tutela risarcitoria per i danni cagionati dall’AI è arrivato dal Parlamento europeo con la Risoluzione del 20 ottobre 2020, con la quale è stata prospettata la possibilità di ricorrere alla Direttiva 85/374/CEE.

La menzionata normativa prevede la cosiddetta responsabilità oggettiva del produttore, che scatta in presenza di un difetto riscontrato sul prodotto e dal quale derivi, quale conseguenza diretta ed immediata, un danno a una persona fisica o a una cosa.

Tuttavia, ai fini del risarcimento, il soggetto danneggiato dovrebbe fornire la prova del danno, del difetto e del nesso di causalità, ossia che il primo è conseguenza del secondo.

Nell’ipotesi in cui il danneggiato sia in grado di dare dimostrazione della sussistenza di tutti gli elementi sopra indicati, questo risulterebbe sufficiente ai fini dell’obbligo di risarcimento posto in capo al fabbricante.

Al contempo, a titolo di prova liberatoria, il produttore deve invece dimostrare, in base al cosiddetto rischio di sviluppo, l’imprevedibilità del difetto al momento della messa in circolazione o la sua sopravvenienza.

Il fabbricante non è però soltanto colui il quale realizza materialmente il prodotto ma, in tale categoria, sono inclusi, oltre all’importatore in UE, tutti coloro i quali appongono il proprio marchio o altri segni distintivi sul prodotto, in modo tale da indurre i consumatori a ritenere che detto prodotto sia riconducibile a tali soggetti.

Secondo l’art. 6 della Direttiva 85/374/CEE, poi, “un prodotto è difettoso quando non offre la sicurezza che ci si può legittimamente attendere tenuto conto di tutte le circostanze, tra cui: a) la presentazione del prodotto, b) l’uso al quale il prodotto può essere ragionevol­mente destinato, c) il momento della messa in circolazione del prodotto”.

Ora, benché il tentativo sia apprezzabile, presenta un problema di fondo molto rilevante.

Il primo risiede nell’onere della prova imposto al consumatore ai fini della tutela risarcitoria. Infatti, è abbastanza improbabile che l’utente comune possa fornire la prova della difettosità, del danno e del nesso causale per prodotti tecnologicamente così complessi come i dispositivi basati sugli algoritmi. Una impostazione di questo tipo sarebbe anche difficile da combinare con il futuro Regolamento europeo sull’AI, che mette al centro della tutela la persona e che soprattutto mira ad accrescere la fiducia degli utenti nei confronti delle nuove tecnologie, missione quasi impossibile imponendo un onere probatorio così arduo a carico del consumatore finale.

L’EDPB aveva già le idee chiare

Altre indicazioni in merito alla tutela risarcitoria dei danni causati dall’AI è arrivata il 22 febbraio 2022 dall’European Data Protection Board che, tenendo conto della proposta di Regolamento, ha scritto una lettera diretta all’On. Didier Reynders, commissario europeo della giustizia nella Commissione, per rivolgere all’esecutivo comunitario una serie di raccomandazioni, richiamando anche il precedente parere congiunto redatto con l’European Data Protection Supervisor.

Dal testo si evince che l’Autorità accoglie con favore e positività l’iniziativa, ciononostante il Comitato evidenzia alcuni aspetti. Due in particolare.

In primo luogo, viene evidenziato un elemento problematico, che riguarda la distinzione tra le figure coinvolte. Più precisamente, l’EDPB sottolinea la necessità di chiarire bene i ruoli dei produttori e dei fornitori di sistemi di intelligenza artificiale, così da consentire una corretta attribuzione di responsabilità sia in termini di protezione dei dati sia in termini di responsabilità civile.

L’EDPB, secondariamente, evidenzia l’opportunità di assicurare agli utenti la maggiore trasparenza possibile riguardo all’impiego di sistemi di AI attraverso idonee informazioni sui meccanismi di elaborazione dei dati. Questo – benché complesso – avrebbe l’utilità di consentire al consumatore comune di avere maggiore contezza del funzionamento delle tecnologie, in modo tale da saper anche distinguere tra eventuali malfunzionamenti dovuti a suoi errori, e malfunzionamenti dovuti a un difetto di produzione.

Infine, l’aspetto forse più rilevante. L’EDPB sottolinea anche che la nuova normativa sulla responsabilità civile dovrebbe essere a sé stante, dotata di una propria autonomia, senza cioè renderla una mera appendice del Regolamento sull’AI, ma un vero e proprio corpus distaccato da esso.

La proposta di Direttiva della Commissione: svolta vicina?

La normativa autonoma di cui parlava l’EDPB nella sua lettera, ha iniziato il suo iter il 28 settembre scorso, quando la Commissione ha pubblicato la proposta di Direttiva sulla responsabilità derivante da sistemi di IA, nota come AI Liability Directive. La proposta, formata da 33 Considerando e 9 articoli, arriva oltre un anno dopo la precedente proposta di Regolamento sull’AI, l’Artificial intelligence Act, che però non contempla una disciplina diretta della responsabilità civile.

Come dichiarato dalla stessa Commissione, la Direttiva mira in prima battuta ad un ammodernamento delle regole vigenti. Questo dovrebbe servire innanzi tutto a garantire una maggiore certezza del diritto per le imprese, le quali avranno quindi una base di norme più chiara e solida che possa orientare la loro attività. Dall’altro lato, lo scopo è anche e soprattutto la garanzia di una tutela effettiva dei danneggiati, i quali potranno ottenere un equo risarcimento per i danni causati da prodotti difettosi.

In secondo luogo, l’altro obiettivo è quello di un’armonizzazione mirata delle norme nazionali in materia di responsabilità aquiliana.

Tuttavia, come precisato dal Considerando n. 10, l’armonizzazione non toccherà gli aspetti generali della responsabilità civile regolata in modo differente nei vari Stati membri come, per esempio, la definizione di colpa o i differenti tipi di danno.

Quanto alla sostanza della normativa, nonché vero e concreto cambiamento, questa muove dalla indispensabile presa di coscienza circa l’inadeguatezza delle regole odierne. Questo è chiaramente espresso dal Considerando n. 3, dove si prende atto del fatto che quando un danneggiato chiede il risarcimento del danno subito, i regimi generali degli Stati membri in materia di responsabilità civile richiedono che questi provi la condotta colposa del presunto responsabile del danno, che quest’ultimo si è realizzato, e infine la prova del nesso di causalità tra detta condotta e detto danno. Tuttavia, precisa il Considerando, quando l’IA si pone tra l’atto o l’omissione di una persona e il danno, le caratteristiche specifiche di alcuni sistemi di IA, come l’opacità, il comportamento autonomo e la complessità, possono rendere eccessivamente difficile, se non impossibile, per la parte lesa adempiere a questo onere di prova. In particolare, può essere eccessivamente difficile provare che uno specifico dato inserito dal potenziale responsabile abbia fatto produrre al sistema di IA un risultato specifico che ha causato il danno in questione. In altri termini, sono le stesse osservazioni fatte in relazione all’applicazione della Direttiva 85/374/CEE.

Il fulcro della normativa si rinviene quindi nella disciplina dell’onere della prova.

A tal proposito, l’articolo 3 della proposta, con riferimento ai c.d. sistemi di intelligenza artificiale “ad alto rischio”, prevede che gli Stati debbano attuare meccanismi procedurali per consentire ai giudici di ordinare al produttore di fornire gli elementi di prova strettamente necessari nel caso in cui vi sia il sospetto che tale sistema ad alto rischio abbia causato il danno asserito da un determinato consumatore. Sarebbero poi previste anche varie accortezze per la conservazione di tali prove. Dopodiché, se il produttore non dovesse rispettare tale ordine, il Giudice dovrebbe considerare provata la colpa.

Una presunzione di causalità in favore del consumatore danneggiato

Ma la principale novità prevista dalla proposta riguarda l’introduzione di una presunzione di causalità in favore del consumatore danneggiato. Ciò significa che il giudice potrà presumere il nesso di causalità tra la colpa del convenuto e il risultato dannoso prodotto dal sistema di AI quando sono soddisfatte tutte le seguenti condizioni: l’attore ha dimostrato o il giudice ha presunto, ai sensi dell’articolo 3, comma 5 (ossia il produttore ha essenzialmente rifiutato di conservare o divulgare gli elementi di prova detenuti), la colpa del convenuto o di una persona il cui comportamento ricade sotto la sua responsabilità, consistente nella violazione di un dovere di diligenza previsto dalla legge dell’Unione o legge nazionale diretta a tutelare direttamente dal danno verificatosi; si può ritenere ragionevolmente probabile, tenuto conto delle circostanze del caso, che la colpa abbia influenzato il “comportamento” del sistema di IA o l’incapacità del sistema di IA di produrre un esito; il ricorrente ha dimostrato che il risultato del sistema di IA o il mancato risultato del sistema di IA ha causato il danno. Un aspetto non trascurabile, però, è che saranno previste regole diverse a seconda che il convenuto sia un produttore o un fornitore, dove per quest’ultimo sarà adottato un approccio diverso, meno stringente.

In ogni caso, è chiaro che il convenuto potrà sempre fornire una prova liberatoria ed esonerarsi da responsabilità, anche se possiamo già essere certi che, con la futura Direttiva, l’onere probatorio più rigido spetterà al soggetto convenuto al fine di tutelare maggiormente il consumatore, cercando soprattutto di evitagli l’adempimento di oneri che non può legittimamente sopportare.

Conclusioni

Come annunciato dalla Commissione stessa, la proposta di Direttiva dovrà ora essere adottata dal Parlamento europeo e dal Consiglio.

Inoltre, si stabilisce che, cinque anni dopo l’entrata in vigore della Direttiva sulla responsabilità da intelligenza artificiale, la Commissione valuterà l’adozione di altre norme in materia di responsabilità oggettiva per le azioni connesse all’IA, se necessario.

Quest’ultimo aspetto sembra marginale, ma in realtà non lo è. Si parla infatti di analizzare gli effetti della Direttiva a distanza di 5 anni dall’entrata in vigore, con l’ipotesi, addirittura, di riaggiornarla.

Possiamo dire che si tratta di una buona notizia, specialmente dopo che si era ipotizzato di regolamentare la responsabilità civile per danni causati dall’IA con una Direttiva del 1985. Basti pensare che, pochissimo tempo prima dell’entrata in vigore di quella normativa l’ex CEO di Apple Steve Jobs presentava il primo Macintosh. Era il lontano 24 gennaio 1984. Insomma, non servirebbe nemmeno la conoscenza approfondita di quella Direttiva per dedurne la probabile inadeguatezza. La proposta della Commissione, quindi, unita alla prospettiva di un monitoraggio dei risultati, sono un ottimo punto da cui partire. Nell’attesa, naturalmente, dei prossimi sviluppi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2