La Commissione europea ha recentemente pubblicato una nuova proposta di Regolamento sull’Intelligenza Artificiale (IA)[1] che si inserisce nell’ampio pacchetto di iniziative legislative che sta adottando nell’ambito dell’economia digitale. La Commissione è già intervenuta attraverso la regolazione su più fronti quali la privacy, la concorrenza e la sicurezza.
Sorveglianza di massa con l’IA, serve approccio rigoroso: i paletti del Parlamento Ue
In particolare, ciò che accomuna queste regolazioni è un approccio definito “top-down”. Viene cioè individuato un rischio – o una categoria di soggetti e settori ai quali si associa un determinato rischio – e si impongono degli obblighi di fare (o non fare). Pertanto, l’obiettivo è la responsabilizzazione dei soggetti che operano nei settori interessati da tali regolazioni o di cui sono i principali destinatari.
Raccomandazioni alla Commissione UE su un regime di responsabilità civile per l’intelligenza artificiale
Il concetto di rischio è centrale e questo comporta che le regolazioni siano particolarmente minuziose. Esse tentano, infatti, di individuare tutte le componenti e casi di rischio associati a un particolare dispositivo, settore o comportamento, al fine di poter adottare misure quanto più specifiche possibili. Sotto questo profilo, queste regolazioni contengono lunghi elenchi e tabelle che descrivono in maniera dettagliata i rischi.
La recente Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale sembra seguire il medesimo approccio.
A differenti livelli di rischio corrispondono diversi livelli di responsabilità
In particolare, esattamente come nella Proposta di Regolamento sull’IA, si individuano differenti livelli di rischio ai quali viene associato un diverso livello di responsabilità. Si prevede infatti che l’operatore di IA ad alto rischio sia oggettivamente responsabile di qualunque danno arrecato e che l’operatore di IA a basso rischio sia soggetto a un regime di responsabilità per colpa, in caso di eventuali danni.
Un approccio per rispondere alle criticità sollevate da peculiarità dell’intelligenza artificiale
Tale approccio contribuisce a porre rimedio ad alcune criticità sollevate da alcune peculiarità dell’IA. Tuttavia, considerando la rapida evoluzione dell’IA, ci si chiede se esso rappresenti la strada più efficace da percorrere per garantire a tutte le eventuali vittime dei sistemi di IA un adeguato risarcimento dei danni subiti.
Col passare del tempo, determinare i rischi e individuare i soggetti responsabili sarà più complicato in quanto i sistemi diventeranno maggiormente integrati e polifunzionali. Inoltre, se è vero che si sta lavorando per sviluppare, in futuro, dei sistemi di IA capaci di agire in maniera autonoma senza un cosciente comando umano, sarà ancora più difficile aggiornare, di volta in volta, la regolazione.
Si rischierebbe, in effetti, di pervenire a un elenco interminabile di settori, soggetti e misure di difficile interpretazione e applicazione in un contesto in continua evoluzione. Dunque, verrebbe meno l’obiettivo, sottolineato dallo stesso Parlamento europeo, di “trovare un equilibrio tra l’efficace ed equa tutela delle potenziali vittime di danni o pregiudizi e, allo stesso tempo, la disponibilità di una sufficiente libertà d’azione per consentire alle imprese, in particolare alle piccole e medie imprese, di sviluppare nuove tecnologie e nuovi prodotti o servizi”[2].
Proposta Regolamento UE sull’Intelligenza Artificiale: è l’ora di coordinamento e aggiornamento
Viene dunque da chiedersi se non sia opportuno valutare l’adeguatezza delle norme vigenti e della giurisprudenza sviluppatasi, effettuando semmai uno sforzo in termini di coordinamento e aggiornamento. Il nostro sistema giuridico ricomprende, infatti, varie ipotesi di responsabilità ascrivibili a molteplici soggetti oltre al produttore.
Si pensi, ad esempio, alla responsabilità dei padroni e dei committenti (art. 2409 c.c.), quella dei custodi (art. 2051 c.c.) e a quella del produttore per danno da prodotto difettoso, in relazione alla quale lo stesso Parlamento europeo ha auspicato l’aggiornamento della Direttiva.
Tali norme potrebbero essere applicate al caso. Pertanto, a titolo esemplificativo, in caso di danni causati da un sistema di IA utilizzato da un medico per operare o visitare un paziente, si potrà, qualora vi siano i presupposti, applicare la normativa riguardante la responsabilità dei padroni e committenti.
IA, l’imputazione oggettiva della responsabilità
Abbiamo quindi nuovi modi per responsabilizzare senza introdurre nuovi strumenti, ma utilizzando quelli che già abbiamo.
È importante sottolineare che l’imputazione oggettiva della responsabilità per danno da prodotto difettoso dovrebbe essere concepita come una tutela ‘sussidiaria’ rispetto alla responsabilità per colpa, ossia per negligenza produttiva.
E così, più precisamente, i danneggiati potrebbero richiedere al giudice, in primo luogo, di accertare la negligenza del produttore, vale a dire la violazione di “regole di condotta” esigibili in base agli standard massimi di settore industriale di appartenenza dell’impresa produttrice. Ciò al fine di ottenere sia il risarcimento sia misure inibitorie dell’adozione di tecnologie inadeguate ovvero dell’omissione di controlli di qualità/sicurezza. In tal modo, verrebbe garantita direttamente la funzione preventiva (di futuri eventi dannosi, evitabili con l’adozione di tecniche più evolute).
Qualora, viceversa, il giudice non fosse in grado di accertare la negligenza del produttore e, quindi l’evento dannoso fosse considerato inevitabile, i danneggiati potrebbero comunque richiedere il risarcimento per danni sulla base dell’imputazione oggettiva.
In conclusione
Infine, in questa prospettiva, le assicurazioni svolgono un ruolo importante al fine di cercare di mitigare l’impatto del trasferimento del rischio di responsabilità sui produttori e sugli altri soggetti coinvolti nella catena di produzione dei sistemi IA. Esse, infatti, favorirebbero l’assunzione, da parte di tutti i soggetti coinvolti, della responsabilità dei danni causati dai loro prodotti, e al contempo svolgerebbero un ruolo positivo nell’incentivare lo sviluppo e/o l’adozione di tecnologie più avanzate e quindi (tendenzialmente) più sicure.
Note
- Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, COM(2021) 206 final, 21 aprile 2021. ↑
- Parlamento europeo, Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, P9_TA(2020)0276. ↑