normative ue

Danni causati dall’intelligenza artificiale, chi paga? Cosa prevede la proposta di direttiva Ue

A fine settembre 2022 la Commissione Europea ha adottato una proposta di direttiva sulla responsabilità per i danni causati dall’intelligenza artificiale (IA), al fine di accrescere la fiducia nell’IA e favorire gli investimenti nel mercato interno. I punti salienti

Pubblicato il 09 Dic 2022

Giacomo Lusardi

Avvocato DLA Piper

L'AI rende funzionale il lavoro senza violare la privacy

Secondo un recente sondaggio la responsabilità civile connessa all’utilizzo di sistemi di intelligenza artificiale (“IA”)[1] è tra i primi tre ostacoli esterni all’utilizzo dell’IA da parte delle imprese europee nel loro complesso (33% del campione), mentre rappresenta il principale ostacolo per le imprese che non hanno ancora adottato sistemi di IA e hanno intenzione di farlo nei prossimi anni (43% del campione).[2]

Civil Liability and compensation for damages (Anna Italiano)

Civil Liability and compensation for damages (Anna Italiano)

Guarda questo video su YouTube

Responsabilità civile e IA: perché c’è bisogno di una legislazione specifica

È in questo contesto che lo scorso 28 settembre la Commissione Europea ha annunciato l’adozione di due proposte volte ad adattare le norme sulla responsabilità civile all’era digitale, all’economia circolare e all’impatto delle catene globali del valore. In particolare, una delle due proposte riguarda una nuova direttiva sulla responsabilità per l’intelligenza artificiale (“Direttiva IA”), volta a facilitare il risarcimento del danno a coloro che abbiano subìto danni derivanti dall’impiego di sistemi di IA.[3]

L’adozione della proposta di Direttiva IA segue alcuni passaggi compiuti dalle istituzioni europee a partire dalla pubblicazione dello studio “Liability for artificial intelligence and other emerging digital technologies” nel 2019[4], passando per l’adozione del Libro Bianco sull’IA del 19 febbraio 2020 da parte della Commissione[5] e approdando poi alla recente consultazione pubblica chiusa il 10 gennaio 2022.[6] La Direttiva IA è parte di un approccio europeo coordinato volto a far fronte alla crescente diffusione dell’IA e delle tecnologie digitali: il Regolamento sull’IA proposto dalla Commissione nell’aprile 2021 (“Regolamento IA”)[7] si concentra principalmente sul monitoraggio e sulla prevenzione dei danni, mentre la Direttiva IA mira ad armonizzare il regime di responsabilità applicabile nei casi in cui i sistemi di IA causino danni, siano essi sistemi ad alto o a basso rischio.[8] Secondo la Commissione, infatti, le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA.

Responsabilità civile dell’intelligenza artificiale: i paletti del nuovo Regolamento Ue

I principali limiti delle normative in questione sarebbero insiti nelle caratteristiche peculiari dell’IA, tra cui la complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), che potrebbero rendere difficile o eccessivamente oneroso per i danneggiati identificare i responsabili e dimostrare la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità extracontrattuale.[9] Inoltre, la catena di fornitura dei sistemi di IA coinvolge diversi attori, rendendo ancora più complessa l’attribuzione della responsabilità. Pensiamo, ad esempio, a un incidente che coinvolga un’auto a guida autonoma: la responsabilità del danno causato potrebbe ricadere sul conducente, sul progettista del sistema di guida autonoma, sul produttore del software dei sensori o dei sensori stessi, sul produttore del veicolo, sui soggetti che hanno fornito i dati rilevanti, su cyber-attaccanti, sul concorso di tutti questi soggetti o persino di altri. Altre difficoltà nell’attribuzione della responsabilità possono derivare dal fatto che alcuni sistemi di IA sono in grado di modificarsi in autonomia in base all’elaborazione di nuovi dati (self-adapting), oppure dagli aggiornamenti cui sono soggetti, o dalla loro interazione continua con l’ambiente circostante, altri sistemi e fonti di dati.

In sintesi, la Direttiva IA mira a prevenire la frammentazione derivante da interventi legislativi non coordinati né coerenti tra loro nei diversi Stati membri e a ridurre l’incertezza giuridica per le imprese che sviluppano o utilizzano l’IA nel mercato interno.

Nello sforzo complessivo di creare un ecosistema favorevole e basato sulla fiducia per lo sviluppo, l’utilizzo e gli investimenti in sistemi di IA, la Commissione sta portando avanti ulteriori iniziative legislative in materia di sicurezza, quali il nuovo “Regolamento Macchine 2021”[10] e la revisione della direttiva sulla responsabilità da prodotto difettoso (“Direttiva Prodotto”).[11] La Direttiva Prodotto e la Direttiva IA sono complementari: la prima ha ad oggetto la responsabilità oggettiva del produttore, mentre la seconda, come detto, riguarda le azioni di responsabilità extracontrattuale a livello nazionale e ha l’obiettivo di assicurare un risarcimento a qualsiasi tipo di danno e di danneggiato.

La Commissione stima che la Direttiva avrà un effetto propulsivo per la crescita del mercato europeo dell’IA, con un valore aggiuntivo generato tra 500 milioni e 1,1 miliardi di euro circa.

The existing legal framework on civil liability (Anna Italiano)

The existing legal framework on civil liability (Anna Italiano)

Guarda questo video su YouTube

La scelta dello strumento direttiva e l’approccio a due fasi

Nel memorandum esplicativo della Direttiva IA la Commissione spiega anche i motivi sottostanti alla scelta dello strumento legislativo (direttiva): un’eventuale soft law non vincolante (ad esempio, raccomandazioni) non sarebbe rispettata nella misura auspicata, mentre uno complesso di norme direttamente applicabile negli Stati membri (regolamento) risulterebbe troppo stringente rispetto all’ambito della responsabilità extracontrattuale, che poggia su tradizioni giuridiche particolari e consolidate nel tempo nei singoli Stati membri. Sotto quest’ultimo aspetto, lo strumento direttiva lascia una maggiore flessibilità agli Stati membri nel recepimento interno.

La Direttiva IA è modellata su un approccio a due fasi: in una prima fase, avrà l’obiettivo di adeguare e coordinare i regimi nazionali in materia di responsabilità civile per danni causati dall’IA, senza stravolgerli. Al riguardo, come vedremo nel seguito, il testo prevede un alleggerimento dell’onere della prova per i danneggiati e, in particolare, della prova del nesso causale tra colpa del convenuto ed evento consistente in un’azione od omissione derivante dall’impiego di sistemi di IA.

La seconda fase prevede anzitutto una valutazione dell’efficacia delle misure adottate nell’ambito della prima fase, tenendo conto dei futuri sviluppi tecnologici, normativi e giurisprudenziali e della necessità di armonizzare altri elementi delle legislazioni nazionali in materia di responsabilità civile, compresa l’introduzione di un eventuale regime di responsabilità oggettiva e di una copertura assicurativa.

La presunzione relativa di causalità e i regimi differenziati per i sistemi di IA 

La Direttiva IA mira all’alleggerimento dell’onere della prova del danneggiato attraverso due principali strumenti: presunzione relativa e divulgazione di informazioni. La prima è volta a semplificare ai danneggiati la prova del nesso causale tra la colpa del convenuto-danneggiante e l’output prodotto dal sistema di IA o la mancata produzione di un output da parte del sistema di IA che ha provocato il danno.

Danni da intelligenza artificiale, l’Ue guarda oltre l’Ai Act: i temi sul tavolo

La Direttiva IA non si spinge, quindi, a disporre un’inversione dell’onere della prova in capo ai danneggianti (ad esempio fornitori o produttori del sistema di IA), poiché considerata troppo gravosa, al punto da generare rischi così significativi da ostacolare l’innovazione e l’adozione di prodotti e servizi basati sull’IA. Secondo alcuni studiosi l’inversione dell’onere della prova potrebbe addirittura portare a un clima di eccessiva litigiosità, con il proliferare di contenziosi instaurati dai danneggiati nei confronti di una molteplicità di soggetti potenzialmente responsabili (Articolo 4(1)).[12]

La presunzione relativa si applica soltanto qualora il giudice nazionale ritenga eccessivamente difficile per il danneggiato-attore (o eventuali altri legittimati) provare il nesso causale e al soddisfacimento di tutte le seguenti condizioni: (a) l’attore abbia dimostrato o il giudice abbia presunto, la colpa del convenuto, o di una persona del cui comportamento il convenuto è responsabile, consistente nell’inosservanza di un obbligo di diligenza volto alla tutela dal danno che si è verificato (ad esempio, un obbligo di diligenza ai sensi del Regolamento IA o altra normativa nazionale o europea); (b) si possa ritenere ragionevolmente probabile, in base alle circostanze del caso, che la condotta colposa del convenuto abbia influito sull’output prodotto dal sistema di IA o l’incapacità del sistema di IA di produrre un output; e (c) l’attore abbia dimostrato che l’output prodotto dal sistema di IA o l’incapacità del sistema di IA di produrre un output abbia causato il danno.

Inoltre, la Direttiva IA prevede un regime differenziato per i sistemi di IA ad alto rischio, così qualificati dal Regolamento IA[13]: l’applicazione della presunzione di causalità nell’ambito delle azioni promosse contro fornitori o utilizzatori di tali sistemi è limitata al caso di mancato rispetto di determinati obblighi previsti dal Regolamento IA (Articolo 4(2)(3)). Inoltre, la presunzione di causalità non è applicabile se il convenuto dimostra che l’attore abbia avuto a disposizione prove e competenze sufficienti per dimostrare il nesso di causalità (Articolo 4(4)).

La Direttiva IA stabilisce anche un ulteriore regime differenziato per il caso in cui il sistema di IA dal quale sia scaturito l’asserito danno sia stato utilizzato nel corso di un’attività personale non professionale (Articolo 4(6)). In questo caso la presunzione di causalità si applica solo se il convenuto abbia interferito materialmente con le condizioni di funzionamento del sistema di IA o se il convenuto fosse tenuto e in grado di determinare le condizioni di funzionamento del sistema di IA e non lo abbia fatto.

La divulgazione di elementi di prova e il bilanciamento con la tutela di know-how e segreto commerciale

Oltre alla presunzione relativa di causalità, con riguardo ai sistemi di IA ad alto rischio la Direttiva IA attribuisce agli organi giurisdizionali nazionali il potere di ordinare la divulgazione di elementi di prova da parte del fornitore o altro soggetto tenuto ai medesimi obblighi del fornitore, nel caso in cui questi abbiano negato di dar corso alla medesima richiesta presentata dal danneggiato-attore (o eventuali altri legittimati) (Articolo 3(1)). Al fine di ottenere l’ordine, chi agisce in giudizio è tenuto a presentare a sostegno della richiesta fatti e prove sufficienti a sostenere la plausibilità della domanda di risarcimento del danno e a compiere ogni sforzo proporzionato per ottenere gli elementi di prova dal convenuto. Oltre alla divulgazione, la Direttiva IA prevede anche che l’attore possa chiedere la conservazione degli elementi di prova (Articolo 3(3)).

Dinanzi all’incessante crescita della complessità dei sistemi di IA e degli algoritmi che li governano, così come all’enormità delle masse di dati che vengono loro somministrati dalle fonti più disparate, diviene esigenza primaria poter fornire una spiegazione dei processi logici e decisionali seguiti, in base a un generale principio di trasparenza. La trasparenza può essere declinata in tre diversi aspetti, tra loro complementari: tracciabilità, comunicazione e spiegabilità.[14]

Particolarmente rilevante è il passaggio della Direttiva IA (Articolo 3(4)) che impone ai giudizi nazionali di tenere in considerazione gli interessi legittimi di tutte le parti nel determinare se un ordine di divulgazione o di conservazione delle prove sia proporzionato. La Direttiva IA fa specifico riferimento alla tutela dei segreti commerciali ai sensi della direttiva UE 2016/943 (direttiva c.d. “trade secret”) e relativa normativa nazionale di recepimento, lasciando al giudice del merito il delicato compito di valutare la prevalenza della divulgazione/conservazione o della tutela del segreto.

Inoltre, la Direttiva IA prevede che qualora sia ordinata la divulgazione di un segreto commerciale o presunto tale in un procedimento giudiziario, le autorità giudiziarie nazionali siano autorizzate, su richiesta debitamente motivata di una parte o d’ufficio, ad adottare misure specifiche necessarie a preservarne la segretezza. Ad esempio, la direttiva trade secret prevede, tra tali misure, la possibilità di limitazione di accesso alla documentazione riservata a un novero ristretto di persone, di limitazione di accesso alle udienze, registrazioni e trascrizioni, e di oscuramento delle parti sensibili delle decisioni.[15]

In caso di mancato rispetto dell’ordine di divulgazione o di conservazione di prove da parte del convenuto, si applica una presunzione relativa di mancata osservanza dei doveri di diligenza cui esso era tenuto (Articolo 3(5)).

Il recepimento della direttiva e la valutazione dei risultati raggiunti: un approccio programmatico

Una volta recepita la Direttiva IA negli Stati membri e trascorsi cinque anni, la Commissione presenterà un report a Parlamento, Consiglio e Comitato Economico e Sociale, nell’ambito del quale valuterà il raggiungimento degli obiettivi previsti (Articolo 5). Nello stesso contesto la Commissione valuterà anche l’opportunità di prevedere un regime di responsabilità oggettiva per le domande avanzate nei confronti degli operatori di determinati sistemi di IA e una copertura assicurativa obbligatoria.

Nella Direttiva IA non vi è traccia del dibattito relativo all’eventuale assegnazione di una sorta di “personalità elettronica” ai sistemi di IA, o quantomeno a quelli dotati di un livello molto elevato di autonomia, in modo simile alla personalità giuridica degli enti, così da poter far ricadere direttamente su tali sistemi la responsabilità per i danni che dovessero causare.[16] Questa impostazione era stata fatta propria, in una recente risoluzione, anche dal Parlamento Europeo, secondo cui l’obbligo di un eventuale risarcimento del danno andrebbe comunque trasferito in capo al proprietario e assolto attraverso un regime di assicurazione obbligatoria.[17]

Il testo attuale della proposta di Direttiva IA sarà soggetto ai commenti degli stakeholder per un periodo minimo di 8 settimane.[18] Tutti i commenti ricevuti saranno riassunti dalla Commissione e presentati al Parlamento Europeo e al Consiglio per alimentare il dibattito legislativo.

Note

  1. “Un software sviluppato con una o più delle tecniche e degli approcci elencati nell’Allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”, art. 3, par. 1, proposta di Regolamento IA.
  2. European enterprise survey on the use of technologies based on artificial intelligence, Ipsos Belgium e iCite per la Commissione Europea, https://www.ipsos.com/sites/default/files/ct/publication/documents/2020-09/european-enterprise-survey-and-ai-executive-summary.pdf.
  3. Disponibile al seguente indirizzo: https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13601-Liability-rules-for-Artificial-Intelligence-The-Artificial-Intelligence-Liability-Directive-AILD-_en.
  4. Disponibile all’indirizzo: https://op.europa.eu/it/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1.
  5. Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, del 19 febbraio 2020 (COM(2020) 65 final): https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf, nel quale la Commissione ha annoverato la questione della responsabilità tra i principali rischi connessi all’impiego di sistemi di IA. Il Libro bianco è poi stato seguito dalle conclusioni del Consiglio del 9 giugno 2020 sul tema “Plasmare il futuro digitale dell’Europa, https://data.consilium.europa.eu/doc/document/ST-8711-2020-INIT/it/pdf e dalla Risoluzione del Parlamento europeo del 20 ottobre 2020 recante le raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)), https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_IT.html.
  6. Sul tema ho scritto in precedenza per questa testata, qui: https://www.agendadigitale.eu/cultura-digitale/danni-da-intelligenza-artificiale-lue-guarda-oltre-lai-act-i-temi-sul-tavolo/. A questo indirizzo la pagina dedicata alla consultazione: https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13601-Liability-rules-for-Artificial-Intelligence-The-Artificial-Intelligence-Liability-Directive-AILD-_en.
  7. Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale (Legge sull’Intelligenza Artificiale) e modifica alcuni atti legislativi dell’Unione, https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0006.02/DOC_1&format=PDF (proposta iniziale della Commissione).
  8. Secondo l’approccio basato sul rischio proprio del Regolamento AI, v. nota 7 sopra per il testo.
  9. Ho trattato, per cenni, il tema in un precedente articolo su questa testata, https://www.agendadigitale.eu/cultura-digitale/fintech-chi-e-responsabile-se-lintelligenza-artificiale-sbaglia-a-investire/.
  10. Sul tema ho scritto in precedenza per questa testata, https://www.agendadigitale.eu/industry-4-0/regolamento-macchine-2021-nuovi-adempimenti-stato-dellarte-e-prossimi-step/ e https://www.agendadigitale.eu/industry-4-0/regolamento-macchine-focus-sicurezza-le-proposte-per-un-felice-rapporto-uomo-robot/. Di seguito il testo della proposta iniziale della Commissione: https://eur-lex.europa.eu/resource.html?uri=cellar:1f0f10ee-a364-11eb-9585-01aa75ed71a1.0012.02/DOC_1&format=PD.
  11. Direttiva 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi. V. https://www.agendadigitale.eu/cultura-digitale/danni-da-intelligenza-artificiale-lue-guarda-oltre-lai-act-i-temi-sul-tavolo/ e la relativa proposta di direttiva pubblicata il 28 settembre 2022 qui: https://single-market-economy.ec.europa.eu/document/3193da9a-cecb-44ad-9a9c-7b6b23220bcd_en.
  12. V, ad esempio, B. Schütte e altri, Damages Liability for Harm Caused by Artificial Intelligence – EU Law in Flux, in Helsinki Legal Studies Research Paper n. 69, Gennaio 2021, p. 26.
  13. Artt. 6 e ss. Regolamento IA.
  14. Ethic Guidelines for Trustworthy AI, dell’EC’s independent high-level expert group on Artificial Intelligence, disponibili all’indirizzo: https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html.
  15. Art. 9(2).
  16. Tra i primi studiosi a proporre questa soluzione, Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol. 70, 1992. Più di recente, N. Petit, Law and regulation of Artificial Intelligence and Robots: conceptual framework and normative implications, working paper, 2017; S. Beck, The problem of ascribing legal responsibility in the case of robotics, in AI & Soc., 2016, 476 e ss.; D. C. Vladeck, Machines without principals, op. cit., 117 e ss.; C. Leroux et al., Suggestion for a Green Paper on Legal Issues in Robotics. Contribution to Deliverable D.3.2.1 on ELS Issues in Robotics, 2012, 58 e ss..
  17. Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL), disponibile all’indirizzo: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.pdf.
  18. Qui la pagina della consultazione: https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13601-Liability-rules-for-Artificial-Intelligence-The-Artificial-Intelligence-Liability-Directive-AILD-_en.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3