Ci troviamo ad affrontare un periodo storico in cui robot, androidi e altre manifestazioni dell’intelligenza artificiale (AI) sembrano sul punto di avviare una nuova rivoluzione industriale.
Lo sviluppo della tecnologia, infatti, sta portando alla creazione di macchine autonome ed intelligenti che sono in grado di apprendere e prendere decisioni in modo indipendente.
Tutto ciò sta destando attenzione, non solo perché potrebbero derivarne dei vantaggi economici, ma anche perché vi sono una serie di preoccupazioni circa gli effetti diretti e indiretti che vi potrebbero essere sulla società nel suo complesso.
Robotica per la Commissione europea
La Commissione europea, nell’ottica di proporre un quadro uniforme almeno a livello europeo, ha pubblicato una “Relazione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica“. Allo stato attuale è infatti indispensabile che la legislazione consideri le implicazioni e le conseguenze legali ed etiche che potrebbero derivare da questo sviluppo tecnologico.
A livello europeo, pertanto, il Parlamento ha deciso di aprire la strada a iniziative in tema di robotica e intelligenza artificiale, facendo ricorso ai suoi diritti a norma dell’articolo 225 del trattato sul funzionamento dell’Unione europea e dell’articolo 46 del suo regolamento, mentre spetterà alla Commissione europea presentare una o più proposte legislative rispetto a tali temi.
Già da qualche anno è stato istituito un gruppo di lavoro sulle questioni giuridiche relative allo sviluppo della robotica e dell’intelligenza artificiale nell’Unione europea, volto a elaborare norme di diritto civile correlate alla materia in questione. Si tratta della c.d. commissione JURI.
Quest’ultima, in particolare, sottolinea che il rapido aumento sia dello sviluppo che dell’utilizzo delle nuove tecnologie implicherà un diverso approccio alle stesse, poiché i robot e l’intelligenza artificiale, presumibilmente, aumenteranno la loro interazione con l’uomo in svariati settori. Vi saranno, quindi, nuove sfide da affrontare per la nostra società. Tali rischi legati all’interazione tra macchine e umani, secondo la commissione JURI, dovrebbero essere affrontati con urgenza garantendo una serie di valori fondamentali da tenere in considerazione nel rapporto tra i robot, l’intelligenza artificiale e gli esseri umani. In quest’ottica particolare attenzione dovrà essere rivolta anche alla sicurezza umana, alla privacy, all’integrità, alla dignità e all’autonomia.
Cosa sono i robot autonomi intelligenti
Per poter affrontare questi temi, deve essere individuata una definizione comune di robot autonomi intelligenti. Ad oggi potrebbero essere prese in considerazione le seguenti caratteristiche:
- la capacità di acquisire autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e l’analisi di tali dati;
- la capacità di apprendimento attraverso l’esperienza e l’interazione;
- la forma del supporto fisico del robot;
- la capacità di adeguare il suo comportamento e le sue azioni all’ambiente.
I robot, infatti, grazie ai progressi tecnologici dell’ultimo decennio, sono in grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane. Sono state però sviluppate alcune caratteristiche che consentono ad un robot di avere la capacità di apprendere dall’esperienza e di prendere decisioni quasi indipendenti, che ha fatto sì che fossero sempre più in grado di interagire con l’ambiente circostante e di alterarlo anche in modo significativo. Tutto ciò, chiaramente, ha rilevanti conseguenze sotto il punto di vista della responsabilità giuridica connessa alla possibile azione nociva di un robot diventa essenziale.
Particolare attenzione è legata al fatto che la maggiore autonomia dei robot è direttamente proporzionale al considerarli degli strumenti nelle mani di altri attori. Pertanto, l’accento si pone sul comprendere fino a che punto le regole ordinarie in materia di responsabilità siano sufficienti e applicabile in questo contesto o se, viceversa, si rendano necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni imputabili ai robot.
L’autonomia dei robot, pertanto, rende necessario comprendere la loro natura, alla luce delle categorie giuridiche esistenti, e, eventualmente, la necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie.
Ad oggi, qualora da un’azione o un’omissione del robot derivi un danno, le norme esistenti in materia di responsabilità coprono solamente i casi in cui la causa di può essere fatta risalire ad uno specifico agente umano, ad esempio il fabbricante, l’operatore, il proprietario o l’utilizzatore, e laddove tale agente avrebbe potuto prevedere ed evitare il comportamento nocivo del robot.
Nell’ipotesi in cui un robot prenda autonomamente delle decisioni, le norme tradizionali non sono sufficienti per attivare la responsabilità giuridica per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati.
La responsabilità extracontrattuale, ai sensi della direttiva 85/374/CEE, riguarda solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, il difetto nel prodotto e la connessione causale tra difetto e danno e che pertanto la responsabilità oggettiva o la responsabilità senza colpa potrebbero non essere sufficienti.
La nuova generazione dei robot, essendo quest’ultimi dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, non è sufficiente a coprire i danni che potrebbero essere dagli stessi causati.
È quindi evidente la necessità di redigere norme nuove, efficaci e al passo con i tempi che corrispondano alle innovazioni e agli sviluppi tecnologici introdotti e utilizzati di recente sul mercato.