Il tema della responsabilità civile per danni causati dall’intelligenza artificiale è uno dei più importanti all’interno delle tre proposte di Regolamento che il Parlamento europeo ha approvato il 20 ottobre 2020.
Tra l’altro, si propone obbligo agli operatori, sia produttori che utilizzatori di sistemi di IA, di attivare un’apposita polizza assicurativa per la responsabilità civile e risarcimenti fino a 1-2 milioni di euro.
Obiettivo è armonizzare la questione all’interno dell’Unione europea, con il fine di accelerare l’innovazione, sostenere la fiducia nell’AI e al tempo stesso garantire una serie di standard etici e garanzie.
Le proposte di regolamento UE
Più nel dettaglio si tratta delle seguenti proposte:
- A9-176/2020: relazione sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale;
- A9-178/2020: relazione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale;
- A9-186/2020: relazione recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate.
Nella riunione plenaria del 18 giugno 2020, con l’obiettivo di stabilire una tabella di marcia a lungo termine dell’UE in materia di intelligenza artificiale (IA), il Parlamento UE aveva già istituito AIDA – Commissione speciale per l’intelligenza artificiale nell’era digitale, incaricata di studiare l’impatto e le sfide dell’introduzione dell’IA, individuando obiettivi comuni a livello dell’UE e proponendo raccomandazioni sulle migliori vie da seguire. L’AIDA, più nel dettaglio, con un mandato di 12 mesi, ha il compito di adottare un approccio orizzontale in materia di IA, analizzandone l’impatto futuro sull’economia dell’UE, con particolare attenzione alle competenze, all’occupazione, all’istruzione, alla sanità, ai trasporti, all’ambiente, all’industria, all’e-government e agli approcci dei paesi terzi all’IA. Le attività del Parlamento Europeo sono completate dalle citate proposte di regolamento, caratterizzate da un elemento comune ravvisabile nel fatto che le normative debbano essere incentrate sulla persona, definendo le modalità per assicurare sicurezza, trasparenza e presa di responsabilità, per evitare la creazione di pregiudizi e di discriminazioni, stimolando allo stesso tempo responsabilità sociale e ambientale nel rispetto dei diritti fondamentali.
Per queste ragioni, la Commissione UE è stata invitata a proporre un quadro normativo completo di principi etici e di obblighi giuridici relativi allo sviluppo, alla diffusione e all’uso dell’intelligenza artificiale, della robotica e delle tecnologie correlate all’interno dell’Unione, compresi il software, gli algoritmi e i dati utilizzati o prodotti da queste tecnologie. Tale quadro dovrebbe basarsi sul diritto dell’Unione, sulla Carta e sul diritto internazionale dei diritti dell’uomo e applicarsi, in particolare, alle tecnologie ad alto rischio, al fine di stabilire norme uguali in tutta l’Unione. Questo approccio, allo stesso tempo, dovrebbe consentire alle imprese di introdurre prodotti innovativi sul mercato e creare nuove opportunità, garantendo nel contempo la protezione dei valori dell’Unione, portando allo sviluppo di sistemi di intelligenza artificiale che incorporano i principi etici dell’Unione fin dalla progettazione. Un tale quadro normativo basato sui valori rappresenterebbe un valore aggiunto in quanto fornirebbe all’Unione un vantaggio competitivo unico.
Proposta sulla responsabilità civile
Costituisce nel dettaglio oggetto del presente intervento la proposta di regolamento n. A9-178/2020 incentrata sulla responsabilità civile collegata a sistemi di IA: uno degli aspetti di rilievo e che costituisce un principio “cardine” dell’intero sistema, va ravvisato nel concetto e nelle funzioni stesse dell’istituto della “responsabilità”, la quale riveste un duplice ruolo garantendo, da un lato, che una persona vittima di un danno o pregiudizio abbia comunque diritto a richiedere un risarcimento alla controparte di cui sia stata dimostrata la responsabilità; dall’altro, incentiva allo stesso tempo persone fisiche e giuridiche ad attivarsi sin dall’inizio per evitare di causare danni o pregiudizi avvalendosi di sistemi di IA.
Ad ogni modo, prosegue il Parlamento, ogni quadro giuridico in materia di responsabilità civile deve comunque infondere fiducia nella sicurezza, nell’affidabilità e nella coerenza di prodotti e servizi, compresa la tecnologia digitale: occorre infatti trovare un punto di equilibrio tra una efficace ed equa tutela delle potenziali vittime di danni o pregiudizi e, allo stesso tempo, la disponibilità di una sufficiente libertà d’azione per consentire alle imprese, in particolare alle piccole e medie imprese, di sviluppare nuove tecnologie e nuovi prodotti o servizi. Solo in questo modo può essere rafforzata la fiducia e creata stabilità per gli investimenti.
Obbligo di assicurazione
Per perseguire questi obiettivi e finalità, la proposta di regolamento impone agli operatori, sia produttori che utilizzatori di sistemi di IA, di attivare un’apposita polizza assicurativa per la responsabilità civile adeguata agli importi e all’entità del risarcimento, anch’essi stabiliti dal regolamento, oltre a individuare meccanismi e regole operative per la ripartizione di eventuali responsabilità, azioni di regresso e termini di prescrizione. Di assoluto interesse anche la differenziazione tra i sistemi di IA ad alto rischio, individuati da un apposito elenco allegato al regolamento, e per i quali la responsabilità è oggettiva in causa di danni o pregiudizi, rispetto agli altri sistemi di IA dove la responsabilità assume il grado di colpa, sino a potere essere esclusa in caso di dimostrazione della non imputabilità in presenza di alcuni motivi individuati.
Da precisare come il regolamento troverà applicazione, all’interno del territorio dell’Unione, laddove un’attività, un dispositivo o un processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all’integrità fisica di una persona fisica, al patrimonio di una persona fisica o giuridica o abbia arrecato un danno immateriale rilevante risultante in una perdita economica verificabile. Quindi responsabilità civile anche per i danni immateriali.
Definizioni
Per comprende i limiti e gli ambiti soggettivi ed oggettivi della responsabilità civile da IA, la proposta contiene una serie di definizione all’articolo 3. Non si può non partire nell’analisi da cosa debba intendersi per “sistema di intelligenza artificiale”, e cioè un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l’intelligenza, tra l’altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. Tale sistema diviene “autonomo” quando è in grado di operare interpretando determinati dati forniti e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni, nonostante il comportamento del sistema sia legato e volto al conseguimento dell’obiettivo impartito e ad altre scelte operate dallo sviluppatore in sede di progettazione.
Come anticipato in precedenza, un differente grado di responsabilità (oggettiva o per colpa) è riscontrata laddove il sistema di IA sia o meno ad alto rischio: in un apposito elenco allegato al regolamento (nelle bozze erano indicati, ad esempio, gli aeromobili senza equipaggio, i veicoli con livelli di automazione, i sistemi autonomi di gestione del traffico e i robot autonomi) saranno individuati puntualmente quelli ad alto rischio, accomunati da un potenziale significativo di causare danni o pregiudizi a una o più persone in modo casuale e che va oltre quanto ci si possa ragionevolmente aspettare. Altro aspetto da sottolineare è la riconducibilità della responsabilità civile a tutti gli operatori, siano essi di front-end che di back-end. Gli operatori front-end sono le persone fisiche o giuridiche che esercitano un certo grado di controllo su un rischio connesso all’operatività e al funzionamento del sistema di IA e che beneficiano del suo funzionamento, mentre quelli di back-end sono, sempre persone fisiche o giuridiche, le quali, su base continuativa, definiscono le caratteristiche della tecnologia e forniscono i dati e il servizio di supporto di back-end essenziale, esercitando perciò anche un elevato grado di controllo su un rischio connesso all’operatività e al funzionamento del sistema di IA.
Sistemi ad alto rischio
L’operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un’attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA. In questo l’articolo 4 della proposta di regolamento dispone ulteriormente come gli operatori di sistemi di IA ad alto rischio non possono eludere la propria responsabilità sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal loro sistema di IA.
Gli operatori non sono invece considerati responsabili se il danno o il pregiudizio è dovuto a cause di forza maggiore. Quanto ai profili di copertura assicurativa, l’operatore di front-end di un sistema di IA ad alto rischio si assicura che le operazioni di tale sistema siano coperte da un’assicurazione a copertura della responsabilità civile adeguata agli importi e all’entità del risarcimento previsti. L’operatore di back-end si assicura invece che i suoi servizi siano coperti da un’assicurazione della responsabilità civile prodotti o imprese anch’essa adeguata agli importi e all’entità del risarcimento.
Altri sistemi IA
L’operatore di un sistema di IA che non si configura come un sistema di IA ad alto rischio, e che di conseguenza non è stato inserito nell’elenco allegato al regolamento, è soggetto a un regime di responsabilità per colpa in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema di IA. L’operatore non è tuttavia responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi:
- a) il sistema di IA si è attivato senza che l’operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell’operatore, o
- b) è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema di IA idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema di IA, monitorando le attività e mantenendo l’affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili.
L’operatore non può sottrarsi alla responsabilità sostenendo che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal suo sistema di IA. L’operatore non è invece responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore. Laddove il danno o il pregiudizio sia stato causato da un terzo che abbia interferito con il sistema di IA attraverso la modifica del suo funzionamento o dei suoi effetti, l’operatore è comunque tenuto a corrispondere un risarcimento se tale terzo è irrintracciabile o insolvibile.
Importo del risarcimento
Un operatore di un sistema di IA ad alto rischio che sia stato ritenuto responsabile per danni o pregiudizi è chiamato a risarcire:
- a) fino a un importo massimo di due milioni di euro in caso di morte o in caso di danni alla salute o all’integrità fisica di una persona interessata in conseguenza della messa in funzione di un sistema di IA ad alto rischio;
- b) fino a un importo massimo di un milione di euro in caso di danni immateriali rilevanti che risultino in una perdita economica verificabile o di danni al patrimonio, anche quando vari beni di proprietà di una persona siano stati danneggiati in conseguenza di un’unica messa in funzione di un unico sistema di IA ad alto rischio.
Prescrizione
Le azioni per responsabilità civile intentate per danni alla vita, alla salute o all’integrità fisica sono soggette a un termine di prescrizione speciale di 30 anni a decorrere dalla data in cui si è verificato il danno.
Le azioni per responsabilità civile intentate per danni al patrimonio o rilevanti danni immateriali che risultino in una perdita economica verificabile sono soggette a un termine di prescrizione speciale di:
- a) 10 anni a decorrere dalla data in cui si è verificato, rispettivamente, il danno al patrimonio o la perdita economica verificabile derivante dal danno immateriale rilevante o
- b) 30 anni a decorrere dalla data in cui ha avuto luogo l’attività del sistema di IA ad alto rischio che ha provocato il danno al patrimonio o il danno immateriale.
Dei periodi indicati, si applica quello che termina per primo.