Un robot che causa danni può essere considerato un “prodotto difettoso”. Oppure no. Ma il nodo centrale rimane quello della responsabilità. E’ in questo complesso ambito che si stanno muovendo i primi passi verso una regolamentazione efficace di robotica e Intelligenza artificiale, in grado di equilibrare le esigenze degli sviluppi tecnologici e il diritto.
Sicurezza e responsabilità nell’automotive
La questione è emersa, con inedita chiarezza, il 19 novembre 2019 quando il National Transportation Safety Board (NTSB) degli Stati Uniti, ovvero l’Agenzia incaricata di migliorare la sicurezza del sistema dei trasporti civili degli USA, si è pronunciata sull’incidente Elaine Herzberg del 2018. Ovvero uno dei pochi casi attestati d’incidente mortale che ha visto coinvolta un’automobile a guida autonoma, in questo caso progettata da Uber. La NTSB ha raccomandato alla National Highway Traffic Safety Administration (NHTSA), ovvero l’Agenzia del Ministero dei trasporti competente sul tema, di richiedere alle imprese che desiderano testare un sistema di guida automatizzato per lo sviluppo su strade pubbliche di presentare piani di autovalutazione della sicurezza prima di poter avviare o continuare i test. Piani che la stessa NHTSA dovrebbe poi rivedere al fine di garantirne l’adeguatezza.
Tecnicismi a parte la questione vera, oltre l’infausto incidente, ruota attorno alla nuova responsabilità e gli sviluppi futuri del tema. Nel caso analizzato, la NTSB ha diviso la colpa per l’incidente a guida autonoma di Uber tra la stessa compagnia, il responsabile della sicurezza del veicolo, la vittima e lo stesso stato dell’Arizona.
L’agenzia ha dichiarato che Uber, in particolare, mancava di “un’efficace cultura della sicurezza”, puntando il dito quindi contro il “Advanced Technologies Group” di Uber.
Ma, facendo un passo indietro e guardando la questione in un’ottica macro, sembra più una questione di pura sensibilità. Come di seguito riportano i dati degli incidenti su strada della UE. Questi dati, pur se in calo, mostrano un quadro indegno dell’avanzamento tecnologico attuale. Tuttavia, l’OCSE e la Word bank hanno affermato come l’introduzione del self-driving possa abbattere più della metà delle morti sulle nostre strade. Dunque, se le cose stanno davvero così, il vero problema resta la fiducia dei consumatori verso l’IA. Che al momento non c’è.
Ma c’è dell’altro. Quando si parla di robot, in senso lato, le questioni che vengono a galla sono sostanzialmente due. La prima relativa all’aspetto etico e la seconda relativa all’aspetto giuridico. Ovvero se è possibile riconoscere come centro di imputazione di diritti e doveri, e conseguente responsabilità, un robot in quanto tale.
Le responsabilità del robot
Parlando di robot ed IA abbastanza sviluppati e capaci di sviluppare ed attuare autonomamente le proprie decisioni, possiamo considerare la responsabilità (almeno per quanto riguarda l’aspetto penale come ricorda con dovizia critica Simona Cedrola in IUSInItinere) del:
- robot come soggetto; sostanzialmente nuova perché appunto non dell’uomo. Ed avremmo quindi la necessità di rivedere tutte le nozioni di capacità soggettiva, azione e colpevolezza per comprendere come le attività realizzate dal robot possano avere effetti rilevanti per le normative in vigore; oppure
- robot come oggetto; e quindi far ricadere in qualche modo la responsabilità sul costruttore anche in assenza di errori di programmazione, costruzione e manutenzione. Parlando quindi di responsabilità per colpa.
Centrale risulta la risoluzione del Parlamento europeo (PA) del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica. Il PA pone al centro del dibattito europeo l’importanza di cominciare a delineare la struttura logica e giuridica della responsabilità per danni causati dai robot. Troviamo, nella risoluzione, un diverso grado di responsabilità a seconda delle effettive istruzioni impartite al robot e che ad ogni modo questa responsabilità dev’essere imputata ad un umano e mai ad un androide. Affermazione, questa, che quindi esclude una delle due tesi su esposte. Sembra una soluzione ancora grezza e monca, e che viene individuata attraverso un regime di responsabilità obbligatorio come per le automobili ma strutturalmente diverso.
Il problema non sembra di poco conto guardando i dati della produzione nell’industria robotica, che crescerà sempre più nei prossimi anni.
Alcuni studiosi, anche della stessa Commissione UE, non si trovano completamente in accordo con il PA. Questi ultimi individuano sì una responsabilità, ma necessariamente da attribuire ai robot (che in futuro potranno completamente prendere delle scelte autonome), con la possibilità quindi di riconoscergli una personalità giuridica simile a quella delle società.
Un caso che vale davvero la pena citare è il robot-sociale Sophia, sviluppato dalla Hanson Robotics nel 2016. Oltre ad aver sostenuto diverse interviste ed intrattenuto conversazioni mostrando una certa “empatia ed emotività” ha ricevuto nel 2017 la cittadinanza in Arabia Saudita. Sophia, utilizzando la IA, riconoscimento facciale e vocale, legato al machine learning raggiunge continuamente nuovi traguardi infrangendo record su record nel mondo della robotica.
Robot, la questione “fiducia”
Insomma, la robotica non è il futuro ma già il presente, con la consapevolezza che manca ancora molto affinché l’IA riesca ad assolvere autonomamente la maggior parte delle funzioni del cervello umano. Infatti, come ricorda Alec Ross in una delle sue ultime pubblicazioni The Industries of the future, il Giappone (che gestisce 310.000 degli 1,4 milioni di robot in campo industriale) ha fatto passi da gigante con il robot Asimo di Honda e il robot Robina di Toyota, umanoidi che possono fungere da assistenti domestici a persona in età avanzata. Tuttavia, il motivo centrale che ne frena l’uso diffuso tra la popolazione sembra più di natura emotiva che tecnica. Come dimostrato prima nell’esempio dell’automobile a guida autonoma.
Tornando alla responsabilità, il PA richiama le tre leggi di Asimov sulla robotica:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno;
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge;
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Troppo facile contestare questo approccio, basti pensare ai c.d. Robot-Killer ovvero l’utilizzo robot-militare nei conflitti e non solo. Un caso limite, ma nella pratica ricorrente, è la necessità di scelta tra due soluzioni emergenziali nelle quali una esclude l’altra, potendo causare danni a delle persone. Verrà applicato lo stato di necessità ex art. 54 del Codice penale, come causa di giustificazione verso il Robot? Dunque, dovremmo utilizzare la stessa responsabilità che fino ad ora è stata attribuita all’uomo?
Androidi, il rischio deregulation
Sembra emergere un circolo vizioso. Nel senso che una regolamentazione etica, politica e legislativa è necessaria per creare quel sostrato di fiducia funzionale allo sviluppo definitivo nel settore industriale della robotica, e verso gli utenti finali. Ma dall’altra parte, non ci si rende globalmente conto del rischio di trovarsi improvvisamente senza una adeguata regolamentazione, se non dopo questi sciagurati incidenti.
Attualmente siamo fermi alla direttiva 85/374/CEE, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi, che qualifica quindi i robot come semplici prodotti. Bisogna fare dell’altro per superare questo stallo normativo. Non sembra un’utopia, ma un ulteriore salto interpretativo.
Se guardiamo alla responsabilità è possibile notare come nel corso degli anni il legislatore abbia “creato” quella degli Enti (si guardi al D. Lgs 231/2001) e dunque non si vede all’orizzonte nessun limite per non attribuirla anche all’IA, al netto dei necessari accorgimenti. Poiché, sembra oramai ovvio, la responsabilità da prodotto difettoso ed in generale quella oggettiva, non bastano più a regolare situazioni nelle quali l’IA arriva a scegliere in completa autonomia le proprie azioni.
Concludendo, la questione non è di facile interpretazione e richiede sforzi ulteriori, per non arrivare impreparati al momento dell’impatto con i devastanti effetti che porterà la robotizzazione. L’Unione europea è sulla buona strada, avendo già riconosciuto la necessità d’approccio europeo e non solo nazionale. Ora staremo a vedere le prossime guidelines e step a partire dal Forum Europeo della Robotica 2020 a Malaga.