La responsabilità penale dell’intelligenza artificiale è un tema che sta emergendo con sempre maggiore rilevanza tra i professionisti dei settori giuridico e tecnologico. Mentre le macchine tradizionali sono state considerate semplici strumenti attraverso i quali gli esseri umani commettono reati (sono numerosi i reati informatici in cui la macchina è sia lo strumento che l’obiettivo dell’atto), oggi l’evoluzione dell’intelligenza artificiale sta mettendo in discussione questo paradigma o, quantomeno, impone una seria riflessione su di esso.
Quella dell’attribuzione della responsabilità penale è infatti una tematica che va oltre la valutazione della responsabilità per danni causati dall’AI e coinvolge vari aspetti.
Indice degli argomenti
Machina delinquere non potest, un limite (per ora) insuperabile
La questione legata a questo “principio” affonda le sue radici in un passato sorprendentemente remoto. Già verso la fine dell’Ottocento, la filosofia giuridica tedesca si era interrogata sulla sua validità, sebbene le intelligenze artificiali e i robot fossero ancora lontani dalla loro realizzazione. I principi argomentativi che sorreggevano le prime prese di posizione contro l’idea della macchina capace di delinquere sono in gran parte gli stessi che oggi vengono riproposti. Secondo tali conclusioni, non avrebbe alcun senso attribuire responsabilità, né morali né giuridiche, a una macchina, poiché essa manca di coscienza e di intenzionalità nelle proprie azioni, oltre a non avere la capacità di scegliere diversamente. Inoltre, non potrebbe essere accusata per un atto da essa fisicamente compiuto, in quanto, a differenza dell’essere umano, non è libera ma determinata. La sua mancanza di libertà di scelta comporta inevitabilmente l’assenza di colpevolezza.
Un simile esito non sorprende, anzi sembra quasi una conclusione scontata, se si fa riferimento alle macchine che conosciamo ancora oggi e che erano le uniche esistenti fino a pochi decenni fa. Queste non sono certamente autonome, ovvero non sono in grado di autogovernarsi, di essere “regola per sé stesse”. L’unico loro tratto distintivo è l’automazione, cioè la capacità di “muoversi da sole”. Tuttavia, questa non è che una parvenza di autonomia, una semplice apparenza esteriore, che non corrisponde a una reale capacità di autogovernarsi. Nella categoria delle vecchie macchine automatiche, infatti, l’autonomia desiderata è assente: ogni loro comportamento è prescritto dai loro progettisti, programmatori o utenti. Che si tratti di macchine meccaniche con ingranaggi o di macchine elettroniche primordiali che operano tramite algoritmi semplici preimpostati, è chiaro che il loro comportamento è sempre determinato, quindi prevedibile e predeterminabile in anticipo.
Come funziona la responsabilità penale per la legge
Tradizionalmente, si sa che la responsabilità penale si basa su due presupposti fondamentali: la commissione di un atto illecito e la presenza di dolo o colpa, ossia la consapevolezza e l’intenzionalità dell’agente. Questo rende difficile applicare il concetto tradizionale di responsabilità penale a una macchina, sempre che lo stato dell’arte non cambi. C’è però uno spunto interessante di riflessione, anche per mettere in discussione ciò che sembra ancora un limite invalicabile, ed è il parallelo con la responsabilità penale delle persone giuridiche. Sino alla fine degli anni Novanta, il principio “societas delinquere non potest” (le società non possono delinquere), appariva a noi allo stesso modo.
Senonché, a seguito di una evoluzione culturale e giuridica, il D.Lgs. n. 231/2001 ha introdotto nell’ordinamento italiano la responsabilità amministrativa dell’ente derivante da reato. In altri termini, le aziende, pur non essendo esseri umani, possono essere ritenute responsabili per reati commessi dai propri al suo interno, proprio perché vengono considerate entità che, pur prive di volontà individuale, agiscono attraverso i comportamenti dei loro rappresentanti. Resta però un altro problema, quello della personalità, non quella fisica, e nemmeno quella giuridica. Una caratteristica fondamentale nel diritto penale, che fa della personalità il suo nucleo insostituibile.
Responsabilità penale dell’AI, il nodo della personalità
Le teorie di Gabriel Hallevy, un giurista israeliano, propongono l’istituzione di una “personalità elettronica” per i robot, simile alle categorie giuridiche esistenti per le persone fisiche e giuridiche, al fine di attribuire loro una responsabilità penale. Secondo Hallevy, le azioni dei robot, che sono in grado di muoversi nello spazio e interagire con l’ambiente, potrebbero essere paragonate a quelle umane, poiché i robot sono mossi verso obiettivi specifici, mostrando autonomia e razionalità, e quindi soddisferebbero i requisiti oggettivi e soggettivi del reato.
In questa prospettiva, i robot con personalità elettronica potrebbero essere direttamente responsabili per i reati che commettono. Tuttavia, questa teoria è criticata per la difficoltà di fare un’analogia tra la mente umana e quella artificiale, nonché per la questione del libero arbitrio e della vera coscienza. Nonostante i progressi nel machine learning, i robot sono ancora fortemente vincolati agli algoritmi che li governano, e non hanno la capacità di prendere decisioni completamente autonome e consapevoli. Pertanto, l’elemento soggettivo della responsabilità penale, che dipende dalla coscienza e dall’intenzione, sarebbe solo apparente: agire come un essere umano non significa essere un essere umano.
Ora, ciò che impedisce l’abbattimento del principio “machina delinquere non potest” è, per Hallevy, è un pregiudizio antropocentrico, dove l’uomo è ritenuto elemento insostituibile. Ma come già accennato, non c’è ramo del diritto che sia più antropocentrico del diritto penale, ed anche la responsabilità degli enti presuppone un reato commesso da un soggetto in una realtà fatta di persone.
Responsabilità penale dell’AI: la situazione
Il principio “machina delinquere non potest”, ispirato a una dottrina che in passato veniva applicata anche alle società, è ancora valido. Per il momento. Attualmente, infatti, i sistemi intelligenti non sono ancora sufficientemente autonomi da essere ritenuti responsabili per le loro azioni. Tuttavia, questa valutazione non è definitiva, dato che la velocità con cui la tecnologia evolve non esclude che, in un futuro prossimo, la capacità e l’autonomia delle macchine possano raggiungere o addirittura superare quelle degli esseri umani.
Fino a quel momento, per i reati commessi dai robot intelligenti, che non possiedono diritti o doveri giuridici, non è possibile attribuire loro responsabilità penale. Pertanto, la questione si sposta sulle responsabilità degli esseri umani coinvolti, che vanno valutate secondo i principi di responsabilità penale attuali. In particolare, sarà necessario accertare se esista una posizione di garanzia in capo a una persona specifica, un nesso causale tra l’azione dell’individuo e l’evento causato dalla macchina, e se ci sia un elemento soggettivo, almeno al livello della colpa, per evitare di ricorrere a una responsabilità oggettiva.
Attribuire la responsabilità al programmatore o all’utilizzatore sulla base di automatismi potrebbe violare però il principio della personalità e della colpevolezza della responsabilità penale, previsto dall’articolo 27 della Costituzione, e dare luogo a responsabilità oggettive, che il diritto penale nostrano non ammette. Per questo, sarà necessario esaminare il comportamento del robot, che spesso è difficile da comprendere, per stabilire se le persone fisiche coinvolte nel suo utilizzo o nella sua programmazione abbiano potuto prevedere l’evento lesivo.
Dolo e colpa nella responsabilità penale dell’AI
In caso di dolo, nessun problema, in quanto sarà possibile attribuire la responsabilità all’operatore o al programmatore che abbia utilizzato o programmato il sistema intelligente con l’intenzione di compiere un illecito.
La questione della responsabilità colposa dell’operatore, invece, è più complessa. Per evitare forme di responsabilità oggettiva, sarà necessario verificare se il programmatore ha effettivamente un controllo significativo sul funzionamento del robot. Secondo l’art. 41, comma 2, c.p., l’azione autonoma del sistema intelligente potrebbe essere considerata una causa sopravvenuta che interrompe il nesso causale tra l’azione del programmatore e l’evento dannoso compiuto dal robot. Di conseguenza, la responsabilità ricadrebbe sulla persona fisica solo se essa ha realmente il potere e l’obbligo di evitare l’evento.
Nel caso di responsabilità colposa dei programmatori o dei produttori, qualora abbiano messo in commercio un robot intelligente consapevoli dei rischi senza fare nulla per prevenirli, si applicheranno i principi della responsabilità per prodotto difettoso. Inoltre, determinare un unico soggetto responsabile risulta difficile, dato che la creazione di un sistema intelligente coinvolge numerosi professionisti, tra cui programmatori, ingegneri, scienziati, produttori e aziende.
Omicidio stradale e auto a guida autonoma
Ad oggi non ci sono i margini per una generalizzata responsabilità penale in capo all’IA in quanto diretta autrice di un reato, quantomeno alla luce dei principi del diritto penale odierno. Un esempio che permetta di capire ancor di più il nodo problematico è quello relativo alle auto a guida autonoma.
Noi sappiamo che la Legge n. 41/2016 ha introdotto il c.d. omicidio stradale all’art. 589 bis. Ora, sappiamo anche che ad oggi non circolano auto a guida totalmente autonoma, ma solo veicoli nei quali la maggior parte del controllo risiede in capo al conducente, che rimane quindi l’unico responsabile di eventuali vittime di sinistro, sempre che non ci siano fattori intermedi come palesi difetti di fabbricazione dell’auto. In ogni caso, ciò che è certo è che non si potrà attribuire la responsabilità all’IA in quanto tale, poiché priva di un grado di autonomia e coscienza da giustificarla.
Il futuro della responsabilità penale dell’AI
Lo stato dell’arte dell’IA ci impedisce di superare il principio “machina delinquere non potest”, al contrario di quanto avvenuto con la responsabilità degli enti. Questo perché la “maturità” del contesto tecnologico e giuridico non lo permette. La logica quindi è semplice, nella sua complessità. Sì, nel campo delle nuove tecnologie è spesso utile se non necessario che le norme anticipino – quando possibile – il futuro. Ma in questo caso, per il momento, quel futuro si può a malapena intravedere. Resta comunque l’importanza di anticipare quantomeno le riflessioni sul tema, soprattutto se si tratta di superare un principio così radicato nel tempo.