Con la prima parte della consultazione pubblica lanciata il 18 ottobre 2021 la Commissione Europea prosegue i lavori avviati nel 2018 nell’ambito della valutazione della direttiva sulla responsabilità per danni da prodotti difettosi (d’ora in poi “Direttiva”) [[1]].
In quell’occasione la Commissione aveva rimesso in discussione attualità ed efficacia della Direttiva rispetto alle sfide poste dalla digitalizzazione, dall’economia circolare, dall’IoT, dall’Intelligenza Artificiale (d’ora in poi “IA”) e dalla sicurezza informatica, fenomeni trasversali a tutti i settori industriali che saranno sempre più parte della nostra vita quotidiana e attrarranno ingenti investimenti negli anni a venire.
La seconda parte della consultazione mira a raccogliere informazioni utili ad affrontare nello specifico il tema dei danni causati da sistemi di IA, sia con riferimento alla responsabilità da prodotto difettoso che alle norme nazionali in materia di responsabilità civile.
AI, l’evoluzione dell’attribuzione di responsabilità: lo stato dell’arte in Europa
Nella visione europea un regime giuridico chiaro e armonizzato in tema di sicurezza dei prodotti e responsabilità rappresenta uno degli snodi cruciali per consentire a imprese e consumatori di trarre vantaggio dall’evoluzione tecnologica, IA compresa.
La direttiva sulla responsabilità da prodotto difettoso e suoi principali limiti
L’Italia ha recepito la Direttiva con il DPR 224/1988, oggi abrogato dal Codice del Consumo. Essa si applica a tutti i prodotti mobili a prescindere dalla tecnologia impiegata, inclusa quindi l’IA. La Direttiva ha introdotto il concetto di responsabilità oggettiva dei produttori, in base al quale essi sono responsabili, indipendentemente dalla loro colpa, per i difetti dei prodotti destinati principalmente all’uso o al consumo privato che causino lesioni personali o danni materiali per un importo superiore a 500 Euro [[2]]. L’onere di provare il nesso causale tra il difetto del prodotto e il danno spetta al danneggiato e vi sono circostanze in cui i produttori possono fornire prova liberatoria (ad esempio se dimostrano che il difetto non esisteva al momento della messa in circolazione del prodotto).
Ad esito della valutazione del 2018 la Direttiva è stata ritenuta nel complesso efficace, ma di difficile applicazione ai prodotti nell’economia digitale a causa di alcune criticità e dell’obsolescenza di concetti fondamentali, come poi confermato anche dalla Relazione della Commissione del 2020 sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità.
Molti stakeholder hanno messo in luce la difficoltà per i danneggiati di dimostrare il nesso tra danno e difetto dovuta all’asimmetria informativa sulle caratteristiche tecniche del prodotto e all’onere di anticipare i costi necessari a svolgere le relative valutazioni. A maggior ragione, questo aspetto è rilevante nel caso di sistemi di IA complessi (ad esempio, il c.d. deep learning), le cui logiche di funzionamento potrebbero talvolta risultare difficili da spiegare persino per gli stessi produttori e programmatori. Diventano quindi essenziali la trasparenza e la spiegabilità delle tecnologie e dei processi impiegati, con un livello di dettaglio variabile in base a settore e pubblico di riferimento [[3]].
Inoltre, l’aumento considerevole dell’offerta di servizi come parte di beni complessi, assieme all’autonomia e alla modificabilità crescenti dei prodotti, hanno reso i concetti di “prodotto” e “produttore”, “difetto” e “danno” molto più articolati rispetto al momento di entrata in vigore della Direttiva.
I temi al centro del dibattito: combinazione tra hardware e software, economia circolare e IA
La consultazione pone l’accento sull’evoluzione tecnologica dei prodotti e dell’offerta, formulando interrogativi sul potenziale adeguamento della Direttiva a una serie di scenari concreti, tra i quali l’integrazione nativa tra software e prodotti tangibili, la messa a disposizione successiva di software in grado di interagire con prodotti tangibili, il rilascio di update e patch per aggiornare le funzionalità dei prodotti o correggerne errori, il crescente impiego di software o i servizi che controllano il funzionamento dei prodotti (ad esempio un servizio basato su cloud per il funzionamento di un termostato intelligente).
Il cambiamento che sta attraversando la società nel suo complesso in chiave di sostenibilità è un altro tema centrale nell’ambito della consultazione, che si sofferma anche sul potenziale adeguamento della Direttiva ai modelli di business basati sull’economia circolare. In caso di ricondizionamento e ri-fabbricazione dei prodotti, come pure di modifiche durante il loro ciclo di vita, l’attribuzione della responsabilità per eventuali difetti non è sempre chiara.
Quanto all’IA, la Commissione evidenzia ancora una volta la difficoltà per i danneggiati di dimostrare eventuali difetti, il nesso causale tra difetto e danno, e la colpa del danneggiante (ove applicabile), soprattutto qualora i sistemi di IA risultino particolarmente opachi e complessi. Le problematiche in questione riguardano anche le fattispecie di responsabilità oggettiva e aggravata previste dagli ordinamenti nazionali che potrebbero già oggi trovare applicazione per i danni da IA, ad esempio in Italia la responsabilità per l’esercizio di attività pericolose o per danni causati dalla circolazione di veicoli [[4]].
È in questo contesto che la Commissione chiede riscontro sugli scenari che potrebbero seguire alla mancata armonizzazione della normativa in materia di responsabilità dell’AI o ad interpretazioni divergenti da parte dei tribunali nazionali, tra cui costi aggiuntivi per le imprese, limitazione delle attività transfrontaliere basate su IA, ricadute sui premi assicurativi e aumento dei prezzi di prodotti e servizi basati su IA.
Tra le misure al vaglio europeo per garantire e facilitare la risarcibilità sul piano civile dei danni provocati da sistemi di IA, l’alleggerimento o inversione dell’onere della prova del danneggiato e l’armonizzazione della normativa sulla responsabilità oggettiva e inerente le soluzioni assicurative.
Abbiamo già trattato in passato alcuni aspetti della responsabilità per danni causati dai sistemi di IA su questa testata, con particolare riferimento al tema della responsabilità contrattuale e ai sistemi di algo-trading.
Due mesi di consultazione, ma c’è ancora tempo
Al momento della redazione di questo articolo sono trascorsi circa due mesi dal lancio della consultazione e la Commissione ha ricevuto un totale di 107 commenti validi, in prevalenza da parte di cittadini (82,24%) e imprese (8,41%). Tuttavia, il numero di imprese partecipanti alla consultazione resta ancora molto basso (8), come pure quello delle associazioni di consumatori (2) e degli istituti universitari/di ricerca (3). A livello geografico, il numero più elevato di contributi proviene dalla Germania (72%), seguita da Italia (7%), Polonia e Austria (4% ciascuna). Sorprende l’assenza di commenti da Stati Uniti e Cina, tra i maggiori produttori di tecnologia e di soluzioni basate su IA.
La consultazione resterà aperta sino al 10 gennaio 2022 ed è auspicabile che per allora la Commissione potrà ricevere un numero sufficiente di commenti da tutte le principali categorie di stakeholder e dalle geografie interessate.
Note
- [] Direttiva 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi. ↑
- [] Nel nostro Codice del Consumo il danno a cose è risarcibile solo nella misura eccedente la somma di Euro 387,00 (art. 123, co. 2). ↑
- [] Abbiamo parlato in maniera più approfondita dell’argomento qui. ↑
- [] Rispettivamente, artt. 2050 e 2054, co. 4, c.c. ↑