etica e tecnologia

Se un robot fa “danni”, di che tipo di colpa parliamo? Tutti i nodi della responsabilità dell’IA

Se un’auto a guida autonoma uccide un passante o un robot infermiere dà al paziente una medicina sbagliata, di chi è la colpa? E quali sarebbero le conseguenze? Ma soprattutto, possiamo davvero dire “è colpa del robot”? Una disamina su alcune delle domande che possiamo porci ma la cui risposta è tutt’altro che immediata

Pubblicato il 08 Mar 2023

Valeria Martino

post-doc presso l’Università di Torino

intelligenza artificiale ai act

Tra i temi più discussi sul rapporto tra esseri umani e Intelligenze Artificiali c’è la possibilità di attribuire responsabilità a queste ultime. Una macchina a guida automatica investe e uccide un ciclista, un’arma automatica (LAWS – Lethal Autonomous Weapon System) uccide un civile, un robot per la cura degli anziani consegna una medicina sbagliata provocando un danno alla loro salute: di chi è la colpa?

Del robot? Dell’utente? Del progettista?

E di che tipo di colpa stiamo parlando? Di una responsabilità legale o di una colpa di tipo morale, o quantomeno sociale, come il termine ci spinge a pensare? Quali elementi sono necessari perché si possa parlare di una colpa vera e propria dei robot? Queste sono solo alcune delle domande che possiamo porci e a cui è tutt’altro che immediato rispondere.

Civil Liability and compensation for damages (Anna Italiano)

Civil Liability and compensation for damages (Anna Italiano)

Guarda questo video su YouTube

La responsabilità legale

La Risoluzione del Parlamento europeo sulla robotica del 17 febbraio 2017 si riferisce alla sola responsabilità legale. Al punto 59, ad esempio, si legge:

“Si invita la Commissione, al momento di effettuare una valutazione d’impatto del suo futuro strumento legislativo, a esplorare, analizzare e considerare le implicazioni di tutte le possibili soluzioni giuridiche, come […] la creazione di uno status giuridico specifico per i robot nel lungo periodo, in modo che almeno i robot autonomi più sofisticati possano avere lo status di persone elettroniche, responsabili di risarcire i danni che possono causare, e possibilmente applicare la personalità elettronica ai casi in cui i robot prendano decisioni autonome o interagiscano con terzi in modo indipendente”.

In questo caso, quindi, si tratta della possibilità di costituire un nuovo e diverso tipo di persona giuridica (chiamata “persona elettronica” – sebbene sia ancora legittimo chiedersi se l’etichetta andrebbe applicata al singolo robot, alla tipologia, a una certa serie, ecc.) e si intende quindi la responsabilità come risarcimento dei danni. Possiamo dunque parlare di un’applicazione del diritto civile ai robot e alle loro azioni. La letteratura (per es., Galasso e Luo 2018) a proposito si è anche interrogata su quanto e in quali modi l’applicazione del risarcimento dei danni a questi casi possa bloccare l’innovazione e spingere le compagnie a non avventurarsi in situazioni rischiose, sebbene tali impedimenti sembrino più teorici che non pratici.

Possiamo dire: “è colpa del robot”?

I filosofi morali, però, si interessano anche (e soprattutto) a un’altra questione: possiamo fondatamente e sensatamente dire “è colpa del robot”?

Per rispondere a questa domanda esistono certamente numerose strategie, ma prima di tutto dobbiamo chiederci cosa è implicato nell’attribuzione di colpa. E le prime risposte che dovrebbero venirci in mente sono l’agentività e la moralità: per essere colpevoli dobbiamo poter agire (autonomamente e contribuendo attivamente all’inizio di un certo processo) e avere la possibilità di agire bene o male (ovvero le azioni di cui siamo gli autori, e di conseguenza più in generale il nostro comportamento, devono poter essere giudicati in base a criteri morali. Sebbene questi stessi criteri possano essere differenti, a seconda dell’etica adottata – tipicamente, una consequenzialista, una deontologica o un’etica delle virtù).

Danni causati dall’intelligenza artificiale, chi paga? Cosa prevede la proposta di direttiva Ue

Qui entra in gioco l’argomento del cosiddetto “responsibility gap” (Sparrow 2007), secondo il quale si creerebbe questa lacuna, questo vuoto che consiste nella impossibilità di attribuire responsabilità a chicchessia, quando veniamo all’analisi delle azioni delle intelligenze artificiali (e nel caso specifico analizzato da Sparrow alle armi automatiche). Esistono situazioni in cui è effettivamente impossibile attribuire la responsabilità a qualcuno (o qualcosa), sebbene un danno o una colpa in effetti ci siano. Infatti, questo argomento prosegue, perché possa darsi responsabilità (morale) il soggetto che ha compiuto l’azione deve soddisfare una serie di criteri: l’intenzionalità, la consapevolezza delle conseguenze, il controllo della catena causale e il libero arbitrio.

Attribuzione di responsabilità a un robot: quali conseguenze?

Si può facilmente confutare l’idea che un robot o un sistema automatico, per quanto sofisticati possano essere, soddisfino tutti questi criteri. E, di conseguenza, si può altrettanto facilmente negare che alle armi automatiche (o altri sistemi simili) possa essere imputata una qualche forma di responsabilità morale. I criteri adottati, infatti, sembrano tipicamente umani e solo con difficoltà potremmo accettare di attribuirli a qualcos’altro. Ma in questi stessi casi, anche agli umani in gioco mancano le caratteristiche necessarie per l’attribuzione di responsabilità, si crea perciò questo vuoto di responsabilità, che appunto sembra essere un vuoto sia legislativo sia morale.

D’altronde, facciamo anche molta difficoltà a immaginare quali potrebbero essere le conseguenze dell’applicazione di una responsabilità legale o morale a un robot: incarcerarlo? Decretarne lo spegnimento definitivo? Tutte cose di cui riusciamo a cogliere il senso solo se torniamo a riferirci al risarcimento dei danni, ma che difficilmente potrebbero farci andare oltre, attribuendo ai robot anche altri significati della parola “responsabilità”. Di conseguenza, se è sicuramente necessario introdurre norme sui possibili usi legittimi di robot e intelligenze artificiali, ciò sembra possibile solo con un’attenzione a possibili danni o svantaggi per gli esseri umani[1].

Un caso differente potrebbe essere quello di attribuire responsabilità alla coppia umano-robot, come soggetto ibrido. È in questa direzione che sembra andare la proposta di Sven Nyholm (2020). Quest’ultimo utilizza quattro considerazioni per cercare di muovere nella direzione di una possibile attribuzione di responsabilità ai robot, sebbene nella attività che svolgono insieme agli umani[2].

Queste considerazioni riguardano:

  • il fatto che l’agentività umana non è l’unico tipo di agentività esistente. Per questo motivo, non dovremmo confrontare il modo di agire dei robot con quello umano per vederne le differenze: sarebbero due modi differenti della stessa cosa;
  • il concetto stesso di agency è flessibile e multidimensionale, per cui non può essere l’unico criterio per stabilire se un robot sta agendo in senso proprio oppure no;
  • l’agentività dei robot deve sempre essere compresa e interpretata in relazione a quella degli esseri umani che interagiscono direttamente o indirettamente con loro;
  • quando riflettiamo se sia eticamente corretto/accettabile o no attribuire una qualche forma di agentività a particolari robot, dobbiamo tenere conto di quali valori e obiettivi sono in gioco nel contesto in cui il robot sta effettivamente operando.

Conclusioni

Come si può evincere da questa breve disamina, il campo di discussione è ancora notevolmente aperto, ma interessante perché ci spinge a porci domande chiave che potrebbero indirizzare la ricerca ponendosi anche al centro delle discussioni sulle policy che sarebbe opportuno adottare, via via che problemi di diversa natura, legale, morale, etica, ecc., nascono dalle nostre interazioni con le Intelligenze Artificiali, al fine di rendere queste stesse interazioni sempre più facili e meno rischiose per tutti.

Bibliografia

Agrawal, A., Gans, J. e Goldfarb, A. (2019). “Economic policy for artificial intelligence”. Innovation Policy and the Economy, 19: 139-159.

Galasso, A. e Luo, H. (2018). “Punishing Robots: Issues in the Economics of Tort Liability and Innovation in Artificial Intelligence”. In Ajay Agrawal, Joshua Gans, and Avi Goldfarb (a cura di), The Economics of Artificial Intelligence: An Agenda. Chicago: University of Chicago Press.

Misselhorn, C. (2023). “Three Ethical Arguments Against Killer Robots”. In Raul Hakli et al. (a cura di), Social Robots in Social Institutions. IOS Press: 24-31.

Nyohlm, S. (2020). Humans and Robots. Ethics, Agency, and Anthropomorphism. London: Rowman & Littlefield.

Sparrow, R. (2007). “Killer Robots”. Journal of Applied Philosophy, 24 (1): 62-77.

  1. In ottemperanza, tra l’altro, alla Prima legge della robotica di Asimov.
  2. Interessante in questo senso la discussione sulle auto a guida autonoma.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati