La Commissione Europea, a fine settembre, ha aggiunto un ultimo tassello al sistema regolatorio dedicato all’intelligenza artificiale (di seguito, IA). Con la proposta di Direttiva UE 2022/303 relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), l’Unione mira a riempire un vuoto che la proposta di Regolamento UE 2021/106, nota come AI Act, aveva lasciato come tale.
Risarcibilità dei danni dell’intelligenza artificiale, la svolta è vicina in Europa
Il tema della responsabilità civile dell’intelligenza artificiale
Il tema della responsabilità civile dell’intelligenza artificiale è di assoluta rilevanza non soltanto per le prospettive di sicurezza e tutela dei diritti fondamentali, ma anche poiché trattasi di una normazione senza precedenti dedicata alla responsabilità di un essere inanimato. Ebbene, la proposta di Direttiva in discorso si inserisce all’interno della composita cornice regolatoria dell’Unione. Difatti, solamente nell’ultimo anno le istituzioni europee hanno affrontato numerose sfide relative all’economia digitale, procedendo a un ritmo impressionante. Basti considerare gli atti legislativi che sono stati già adottati, tra cui la legge sui Servizi Digitali (Digital Services Act), la legge sui Mercati Digitali (Digital Markets Act) e la legge sulla governance dei dati (Data Governance Act).
Molti altri hanno raggiunto fasi avanzate della procedura legislativa, tra cui il menzionato progetto di legge sull’intelligenza artificiale. Con la sua – talvolta ipertrofica – attività legislativa, l’UE sembra essere attualmente la regione più dinamica al mondo per quanto riguarda la regolamentazione della sfera digitale. Una tendenza che non può non richiamare il noto “effetto Bruxelles” : ossia, le mire dell’Unione a divenire leader globale nella creazione di concetti e principi normativi. A tal riguardo, un primo aspetto di criticità potrebbe essere proprio rappresentato dalla scelta dello strumento normativo, la Direttiva, che, lasciando spazio alla libertà degli Stati Membri, potrebbe creare non poche difficoltà di adeguamento rispetto agli attuali assetti normativi nazionali sulla responsabilità civile.
Da ultimo, dunque, con la Direttiva in esame, la Commissione ha assunto la decisione di esercitare un’attività creativa con riguardo a determinati aspetti di responsabilità civile per danni cagionati dall’utilizzo di IA: un’esigenza che tenta di rispondere alla complessità dell’allocazione del danno secondo gli schemi tradizionali, ove le tecnologie autonome siano coinvolte. La proposta di Direttiva UE 2022/203, nello specifico, introduce una serie di misure volte a tutelare il consumatore in caso di danno extra-contrattuale per colpa del fornitore o utente del sistema di IA: tale novità, peraltro, è completata dalla proposta di Direttiva UE 2022/302, la quale, nel riformare la previgente Direttiva 85/374/CEE, prevede un’estensione anche alle tecnologie digitali delle norme relative ai casi di responsabilità oggettiva che non richiedano la dimostrazione della colpa del fornitore o dell’utente del sistema. Il pacchetto costituito dalle due proposte, pertanto, mira a includere un’elevata quantità di potenziali casistiche e a fornire pertanto una quanto più estesa tutela possibile dei diritti del consumatore.
Le ragioni dietro l’intensa attività legislativa dell’Ue nella sfera digitale
L’intensa attività normativa dell’Unione Europea nella sfera digitale potrebbe far presagire, come si accennava, un’eccessiva estensione del controllo normativo, con conseguenti timori per lo sviluppo, per l’innovazione e l’eccessiva pavimentazione degli obblighi di conformità. Tuttavia, proprio il tema della responsabilità pare essere il terreno che maggiormente necessita della delineazione di una regolazione comune agli Stati Membri. Le ragioni sono molteplici. La competizione globale per lo sviluppo dell’IA, la sua diffusione e utilizzo, con il conseguente impatto economico e sociale che ne deriverà, richiede un intervento coordinato a livello sovranazionale, che non sia solo rispettoso ma anche plasmato dall’approccio europeo caratterizzato dal massimo rispetto dei diritti fondamentali e della protezione degli utenti, promuovendo al contempo lo sviluppo economico. In particolare, come anche evidenziato dallo studio su AI and Civil Liability pubblicato dal Parlamento Europeo nel 2020, per quanto riguarda la responsabilità civile, tre paiono essere le direttrici:
- la necessità di creare una soluzione europea, che non ricorra in primo luogo alle legislazioni preesistenti degli Stati membri, in particolare in termini di principi generali di responsabilità civile da fatto illecito o da contratto;
- di ripensare il paradigma di responsabilità, anche superando quello esistente e applicabile, previsto attualmente dalla Product Liability Directive (relativamente alla quale, come si è visto, la Commissione ha previsto una riforma con la proposta 2022/302);
- di perseguire il massimo livello di protezione per l’utente e la potenziale vittima, migliorandone eventualmente le condizioni.
I diritti fondamentali come bussola della proposta di direttiva
Detti obiettivi, si estrinsecano all’interno della proposta direttiva sulla responsabilità da intelligenza artificiale mantenendo come bussola un ampio spettro di diritti fondamentali, tra cui il diritto alla riservatezza (articolo 7 della Carta di Nizza), il diritto alla vita (articolo 2), il diritto all’integrità fisica e psichica della persona umana (articolo 3), nonché la tutela del diritto di proprietà e della proprietà intellettuale (articolo 17). Pertanto, a seconda del sistema di diritto civile e delle tradizioni di ciascuno Stato membro, i danneggiati potranno altresì chiedere il risarcimento del danno arrecato ad altri interessi giuridici, come le violazioni della dignità personale (articoli 1 e 4 della Carta), il rispetto della vita privata e della vita familiare (articolo 7), il diritto all’uguaglianza (articolo 20) e alla non discriminazione (articolo 21).
Al quadro dei diritti ivi delineato deve aggiungersi anche il potenziamento del diritto di adire un’autorità giudiziaria da parte dell’individuo danneggiato. Difatti, riprendendo lo schema ormai ben noto dell’AI Act, il considerando n. 16 conferma la particolare attenzione del legislatore europeo a realizzare una normativa differenziata a seconda della tipologia di sistema di intelligenza artificiale fornito o utilizzato e, in particolare, del livello di rischio che esso comporta. Così, nella proposta di direttiva sulla responsabilità da intelligenza artificiale, inoltre, sia l’articolo 3 sia l’articolo 4 prevedono un meccanismo di tutela particolarmente avanzato per quanto concerne i sistemi di “alto rischio”.
Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa
Gli Stati Membri devono, difatti, provvedere a prevedere che un’autorità giurisdizionale possa ordinare al fornitore o all’utente di IA di riferire quelle informazioni, registrate o documentate a norma dell’AI Act, che possano costituire elementi di prova pertinenti relativi al sistema che abbia cagionato il danno, in modo da garantire all’attore (o potenziale tale) di poter correttamente esercitare i suoi diritti processuali. Inoltre, l’articolo 4, nel prevedere alcune forme di presunzione iuris tantum a favore del consumatore, prevede una disciplina particolarmente favorevole alla posizione di quest’ultimo per i casi in cui il danno sia prodotto precisamente dall’utilizzo di sistemi di IA ad alto rischio. Ebbene, nonostante la direttiva miri a fornire alle persone che chiedono il risarcimento di danni causati da sistemi di IA ad alto rischio mezzi efficaci per identificare le persone potenzialmente responsabili e le prove pertinenti per una domanda di risarcimento, non si spiega la ratio per cui tali mezzi siano previsti solo per sistemi ad alto rischio, e non anche per altre sfumature di IA, soprattutto quelle cosiddette “vietate”, come il riconoscimento facciale, di cui all’art. 5 della proposta.
Il ricorso all’elemento del rischio
Il ricorso all’elemento del rischio, come già segnalato altrove, rappresenta una tecnica legislativa sempre più comune e diffusa all’interno del quadro normativo euro-unitario, in divenire, volto alla regolazione del mondo digitale. Finalità ultima di tale strategia è quella di garantire al massimo grado un adeguato bilanciamento degli interessi in gioco: in particolare quelli, da un lato, legati agli interessi del mercato e dell’innovazione tecnologica; nonché quelli, dall’altro lato, legati alla protezione dei valori democratico-costituzionali e/o dei diritti individuali (in questo caso, i diritti del consumatore). Attraverso il rischio, infatti, il legislatore mira a introdurre meccanismi di protezione e regolazione progressivi e, per quanto possibile, “cuciti” addosso ai concreti pericoli connessi all’utilizzo di nuove tecnologie.
Nel caso della proposta di direttiva in esame, peraltro, la declinazione del rischio emerge, da un lato, dal riferimento a un altro atto normativo in divenire, ovverosia il menzionato AI Act: una scelta che, se non estranea a potenziali critiche (soprattutto alla luce delle speculari critiche che sono state da più parti avanzate al sistema di rischio sviluppato dallo stesso AI Act), è quanto meno apprezzabile sotto il profilo della coerenza sistemica (e interpretativa) tra le due fonti. Dall’altro lato, la strategia del rischio, intesa quale meccanismo volto a una minimizzazione degli obblighi e responsabilità degli attori economici, emerge anche dalla scelta operata dal legislatore di agire “per fasi”. È infatti da sottolinearsi come il legislatore europeo abbia previsto, nell’articolo 5 della proposta, un meccanismo di revisione che imponga alla Commissione e alle istituzioni europee di valutare, entro cinque anni dall’entrata in vigore della stessa, la necessità di attuare ulteriori misure, inclusa, eventualmente, la possibilità di adottare ulteriori strumenti normativi. In altri termini, la proposta riflette un atteggiamento cauto e, almeno in prima battuta, volto alla riduzione dell’ipertrofia normativa e delle responsabilità degli attori economici, ma altresì mosso dalla consapevolezza della necessità di adeguare, laddove necessario, l’intervento legislativo per calibrarlo al concreto bisogno di tutela dei consumatori.
Con riferimento alla possibilità di attuazione di una “seconda fase” della regolazione europea della responsabilità extra-contrattuale da intelligenza artificiale, vale tra l’altro la pena sottolineare come la proposta menzioni, in particolare, “l’eventuale necessità di accompagnare tale armonizzazione con una copertura assicurativa obbligatoria, per garantire l’efficacia” della normativa in oggetto. Una misura, questa, la cui importanza la dottrina ha già da tempo sottolineato: così, già nel 2019, Finocchiaro sottolineava come occorresse “prevedere meccanismi di allocazione del costo del danno cagionato su quei soggetti che astrattamente potrebbero essere responsabili, ad esempio mediante la costituzione di un fondo al quale attingere, prescindendo dall’individuazione delle modalità dell’incidente o dell’errore”, con l’obiettivo precipuo di “ rassicurare i potenziali utilizzatori sul fatto che, a prescindere dagli esiti di una costosa ricerca sull’errore, otterranno un risarcimento”. In tal senso, la scelta di rimandare a data da destinarsi l’adozione di una tale misura sembra per certi versi un’occasione sprecata nel contesto dell’avanzamento dei diritti dei consumatori.
Conclusioni
In ultima analisi, il testo della proposta direttiva sulla responsabilità da intelligenza artificiale sembra caratterizzarsi per luci e ombre nel contesto dell’avanzamento dei diritti individuali nel contesto digitale. La proposta è senz’altro da accogliere nella parte in cui mira a completare l’AI Act nella parte in cui quest’ultimo atto pareva essere privo di adeguati mezzi di tutela processuale per gli individui danneggiati dall’utilizzo di sistemi di intelligenza artificiale. Il testo della proposta, in particolare, nel prevedere obblighi di divulgazione degli elementi di prova, nonché nell’introdurre un meccanismo di presunzioni, sembra garantire un nuovo strumentario essenziale alla luce delle problematiche inerenti all’utilizzo dell’IA (in primis, la mancanza di trasparenza e il fenomeno della “scatola nera”). Inoltre, è senz’altro apprezzabile lo sforzo di coordinamento, anche e soprattutto terminologico, con altre fonti del diritto europeo in divenire, al fine di garantire una maggiore chiarezza interpretativa.
Lo stesso ricorso alla strategia del rischio quale meccanismo di realizzazione di una proposta normativa capace di contemperare i diversi interessi in gioco sembra essere potenzialmente positiva, oltre che in linea con il progetto digitale dell’Unione europea. Senonché, alcune previsioni sembrano peccare, sotto il profilo operativo, di eccessiva cautela: così, non risulta del tutto comprensibile la scelta di limitare alcune tutele del consumatore al solo caso di utilizzo di sistemi ad alto rischio; allo stesso modo, la scelta di rimandare a una “seconda fase” (prevista ad almeno cinque anni di distanza dall’entrata in vigore della direttiva) l’adozione di ulteriori strumenti pare per certi versi un’occasione mancata e un ingiustificato ritardo nell’avanzamento dei diritti del consumatore.