La soluzione delle tensioni esistenti tra il sistema di responsabilità civile esistente negli ordinamenti europei e le nuove tecnologie è un punto cruciale per garantire lo sviluppo e la diffusione dell’intelligenza artificiale.
La responsabilità, in termini giuridici, indica il grado di imputabilità delle conseguenze legali di una determinata azione in capo a una “persona”, sia essa fisica o giuridica. Con l’avvento dei sistemi di intelligenza artificiale il paradigma di responsabilità civile, da sempre ascrivibile solo alle “persone”, si è scontrato con una nuova realtà, in cui gli strumenti non solo sono dotati di un certo grado di autonomia – e quindi possono agire indipendentemente dal governo di un essere umano – ma sono anche in grado di evolversi e di apprendere dalle proprie esperienze e dall’ambiente circostante, modificando e adattando i propri comportamenti e le proprie azioni, spesso anche in modi imprevedibili.
Il ruolo del concetto di responsabilità
Il concetto di “responsabilità”, infatti, svolge un duplice ruolo: da un lato, garantisce che colui che ha subito un danno o un pregiudizio abbia il diritto di ottenere un risarcimento da colui che ha prodotto – con le proprie azioni od omissioni – tale danno o pregiudizio e, dall’altro lato, previene, attraverso tale sistema di incentivazione economica, la commissione di danni o pregiudizi per il conseguimento di interessi o vantaggi personali.
Per tali ragioni, affinché i sistemi di intelligenza artificiale possano entrare a far parte della nostra quotidianità e le aziende attive in tale settore siano incentivate a investire, è necessario che l’intelligenza artificiale sia dotata di un equo grado di fiducia, sicurezza e affidabilità, che deve essere raggiunto, non soltanto attraverso il progresso tecnologico, ma anche attraverso un’efficace disciplina della responsabilità che garantisca la certezza del diritto per tutte le parti coinvolte: produttori, operatori e terzi.
Intelligenza artificiale, il regolamento della Commissione UE: una sfida complessa
AI e responsabilità, l’iniziativa della Commissione europea
A tal fine, la Commissione europea ha istituito l’Expert Group on liability and new technologies, un gruppo di esperti incaricato di approfondire e studiare il tema della responsabilità, con particolare riferimento ai sistemi normativi esistenti e alla loro compatibilità e adattabilità alle peculiarità dei sistemi di intelligenza artificiale.
Il primo approccio alle criticità riscontrate in tema di responsabilità e intelligenza artificiale è stato, quindi, di tipo “estensivo” ed “interpretativo”, partendo dal concetto di “neutralità tecnologica” della normativa comunitaria esistente che ne consente – quantomeno astrattamente – un adattamento alle nuove tecnologie. Muovendo da tale premessa, il gruppo di lavoro, nel report prodotto nel 2020, ha concluso che non sia necessario procedere all’adozione di norme ad hoc per la disciplina della responsabilità dei sistemi di intelligenza artificiale, potendosi, in questa fase, applicare estensivamente le norme giuridiche già esistenti nell’ordinamento.
AI e danno per responsabilità civile
Una conclusione di questo tipo impone necessariamente un’ulteriore riflessione su quali fattispecie ricollegabili alla responsabilità civile per danno possano essere adattate all’intelligenza artificiale. Nel report, il gruppo di lavoro individua come normativa comunitaria di riferimento quella prevista in tema di danni cagionati da prodotti difettosi, disciplina contenuta della Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nell’attuale Codice del Consumo (D.lgs. n. 206/2005). Rimanendo ancorati al conetto di intelligenza artificiale come strumento, i membri del gruppo di lavoro hanno ritenuto le ipotesi di responsabilità per product liability le più indicate per disciplinare anche i danni causati da una intelligenza artificiale il cui difetto abbia determinato un output dannoso. Tuttavia, una simile soluzione solleva non pochi dubbi. Infatti, pur trovandoci di fronte a una normativa che, in astratto, può essere qualificata come tecnologicamente neutrale, non mancano delle difficoltà applicative, emergendo considerevoli tensioni già dalle definizioni.
Lo stesso concetto di “prodotto”, riconducibile a qualsiasi “bene mobile”, poco si adatta ai sistemi di intelligenza artificiale che uniscono in modo sostanzialmente inscindibile sia un prodotto che un servizio. Inoltre, il prodotto può essere definito “difettoso” solo qualora non offra tutte le caratteristiche che si potrebbe legittimamente attendere da prodotti simili, sulla base delle circostanze del caso, compreso l’uso al quale il prodotto può essere ragionevolmente destinato e i comportamenti che si possono prevedere in relazione alla natura del prodotto stesso.
L’interoperabilità dei sistemi di intelligenza artificiale e le loro capacità adattive rendono particolarmente difficile l’indagine e la prova della difettosità del sistema, specialmente se si considera che tale caratteristica deve sussistere al momento della “messa in circolazione del prodotto”, inteso come momento in cui il sistema viene immesso sul mercato. Con riferimento all’intelligenza artificiale, infatti, il difetto non solo potrebbe presentarsi anche dopo la messa in circolazione del prodotto, ma, considerate le sviluppate capacità di auto-apprendimento ed auto-adattamento di alcuni sistemi, il comportamento considerato “difettoso” potrebbe non rientrare tra quelle caratteristiche che ci si potrebbe legittimamente attendere dal prodotto.
Responsabilità oggettiva
Al fine di superare le criticità derivanti da una forzata applicazione della disciplina della responsabilità per product liability, l’Unione europea ha, più in generale, inquadrato i danni causati da sistemi di intelligenza artificiale nell’alveo della c.d. responsabilità oggettiva, intesa come responsabilità contrapposta a quella per colpa. A livello nazionale, ciò comporta un’analisi delle norme giuridiche esistenti – non essendo prevista una normativa comunitaria uniforme – al fine di verificare se le previsioni in esse contenute e le attività in esse disciplinate siano applicabili agli scenari connessi ai sistemi di intelligenza artificiale.
Il contesto normativo italiano
Nell’ordinamento italiano tale problema non è di poco rilievo. Infatti, la lex generalis prevista dall’art. 2043 c.c., sancisce la risarcibilità dei danni che siano cagionati da azioni od omissioni commesse con dolo o colpa, prevendo la configurabilità di responsabilità oggettive solo in specifiche situazioni tassativamente previste dalla legge.
In questo contesto, in particolare, si inserisce l’art. 2050 c.c. che riconosce una responsabilità oggettiva – vale a dire senza colpa – in capo a chiunque nello svolgimento di un’attività considerata pericolosa, per sua natura o per la natura dei mezzi adoperati, cagioni un danno a terzi. Chi cagiona danno nello svolgimento di un’attività pericolosa può liberarsi dalla responsabilità solo provando “di aver adottato tutte le misure idonee a evitare il danno” (c.d. prova liberatoria).
Ciò significa che chi pone in essere un’attività pericolosa deve organizzarla preventivamente secondo modalità idonee a evitare che la pericolosità si traduca in danno. Da questo punto di vista la disciplina dell’art. 2050 c.c. appare più avanzata e tecnologicamente neutrale, sul piano della tutela, rispetto a quella più nuova del danno da prodotto difettoso. Mentre, infatti, la seconda limita la responsabilità alla “difettosità” del prodotto, restando escluso il cosiddetto “rischio di sviluppo”, l’articolo in esame impone l’adozione di tutti quei metodi che la tecnologia è in grado di predisporre, “a prescindere dal costo o dalla perfezionabilità” (Corte di Cassazione sentenza n. 8069/93).
Tuttavia, affinché si configuri la responsabilità di cui all’art. 2050 c.c. è necessario che sussista un nesso causale tra l’attività pericolosa e il danno sofferto. Posto che nella copertura dell’art. 2050 c.c. sono ricomprese non solo le attività pericolose tipiche (come, ad esempio, quelle contenute negli artt. 46-76 del R.D. 18 giugno 1931, n. 773, “Testo unico delle leggi di pubblica sicurezza”), ma anche tutte quelle altre attività che per la loro spiccata potenzialità offensiva, implicano un’elevata possibilità di recare danno a terzi (c.d. attività pericolose atipiche), affinché un sistema di intelligenza artificiale possa rientrare in tale disciplina è indispensabile che l’attività nella quale è impiegato sia qualificata o qualificabile come potenzialmente offensiva, in funzione di una serie di parametri e criteri oggettivamente verificabili.
L’approccio basato sul rischio
È in questo contesto che si instaura l’approccio basato sul rischio sancito da una delle tre risoluzioni del Parlamento europeo dell’ottobre 2020, ripreso integralmente dalla bozza di Regolamento europeo sull’intelligenza artificiale pubblicata ad aprile 2021, che, partendo dall’assunto in base al quale l’ordinamento giuridico degli Stati membri può adeguare le proprie norme in tema di responsabilità e prevedere ipotesi di responsabilità oggettiva per determinati soggetti o attività, ravvisa nell’individuazione di un rischio connaturato ai sistemi di intelligenza artificiale il paradigma per il riconoscimento di una responsabilità civile.
Considerando la molteplicità dei sistemi di intelligenza artificiale e la gamma diversificata di rischi che questa tecnologia comporta l’obiettivo di individuare una soluzione comune, applicabile all’intero spettro dei rischi, risulta di particolare complessità applicativa. In tale contesto, il tipo di sistema di intelligenza artificiale su cui l’operatore esercita il proprio controllo costituisce un fattore determinante per l’attribuzione della responsabilità, comportando rischi più elevati quei sistemi di intelligenza artificiale che sono in grado di agire in modo autonomo, senza il governo di un essere umano. Pertanto, nell’affermare la necessità di istituire un regime comune di responsabilità oggettiva per i sistemi di intelligenza artificiale, il Parlamento europeo sottolinea l’opportunità di prevedere l’adozione di un approccio basato sul rischio, che tenga in considerazione diversi livelli di rischiosità, basandosi su criteri chiari e su una definizione adeguata e certa di alto rischio.
AI e rischi nella proposta di regolamento UE
A distanza di pochi mesi da tale pronuncia del Parlamento, la Commissione europea ha rilasciato la sua proposta di Regolamento sull’intelligenza artificiale o “Artificial Intelligence Act” (AIA), che intende creare un framework legislativo europeo per regolamentare l’intelligenza artificiale proprio mediante l’adozione di un approccio basato sul rischio. La bozza individua quattro fasce nelle quali far rientrare tutti i sistemi di intelligenza artificiale, così suddivise:
- rischio inaccettabile, relativo a tutte quelle attività svolte con sistemi di intelligenza artificiale che violano i diritti fondamentali previsti dell’Unione europea (come, ad esempio, attività di social scoring o attività di identificazione biometrica in luoghi pubblici);
- rischio elevato, relativo a tutte quelle attività svolte con sistemi di intelligenza artificiale che possono determinare un impatto negativo sulla sicurezza delle persone o sui loro diritti fondamentali;
- rischio limitato, relativamente ad attività che per loro natura potrebbero comportare rischi di manipolazione o inganno;
- rischio minimo, che comprende tutte le attività che non rientrano nelle categorie precedenti.
La bozza proposta dalla Commissione europea individua per ciascuna fascia di rischio specifici adempimenti e obblighi a cui produttori, operatori e utilizzatori devono attenersi al fine di poter produrre, commercializzare ed utilizzare sistemi di intelligenza artificiale. Fatta eccezione per la categoria dei sistemi a rischio inaccettabile, che sono espressamente vietati, i requisiti sono previsti dal Regolamento in un’ottica decrescente e proporzionale, da quelli più stringenti ed onerosi, previsti per i sistemi a rischio elevato, al semplice rinvio al rispetto della legislazione esistente senza la previsione di ulteriori obblighi legali per i sistemi a rischio minimo.
Anche se in questo testo non trova spazio una specifica disciplina della responsabilità civile dell’intelligenza artificiale, che sarà oggetto di diversa e separata proposta, grazie alla classificazione per fasce di rischio, l’applicazione per analogia estensiva della previsione di cui all’art. 2050 c.c. appare oggi più percorribile e sostenibile. La qualificazione delle attività compiute con sistemi di intelligenza artificiale come “attività pericolose” potrà essere operata attraverso la classificazione dei relativi sistemi in base al rischio. Maggiore sarà il rischio attribuito al sistema, maggiore sarà la potenziale offensività e pericolosità riconducibile all’attività svolta attraverso l’utilizzo di tale tecnologia. Questa analogia consentirebbe di individuare l’esistenza del nesso di causalità tra l’attività e il danno subito. In tale contesto, inoltre, l’accurata e ricca previsione di adempimenti previsti dal Regolamento per un conforme e sicuro utilizzo dei sistemi di intelligenza artificiale consentirebbe di ravvisare la prova liberatoria nella dimostrazione di aver adottato tutte le misure previste dalla legge per la specifica fascia di rischio.
Conclusione
Anche se l’adozione di tale testo costituisce un tassello fondamentale nel percorso di disciplina legislativa dell’intelligenza artificiale, consentendo – seppur indirettamente – di ricavare una disciplina anche in tema di responsabilità per i danni causati dai sistemi intelligenti, è comunque auspicabile un intervento legislativo ad hoc, che premetta di individuare con certezza gli obblighi a cui tutte le parti coinvolte devono attenersi, adottando un approccio legislativo il più possibile neutrale, non eccessivamente vincolato allo stato dell’arte della tecnologia, ma in grado di sopravvivere ai repentini e imprevedibili mutamenti del settore.