Ci sarà mai spazio per una decisione giudiziale interamente robotica, cioè definita esclusivamente da un algoritmo? Vediamo quali sono i sette possibili rischi che si annidano in un sistema giudiziario basato su decisioni/sanzioni aliene da quell’atteggiamento unico che appartiene soltanto a chi giudica i suoi simili.
Tecnologia, pathos e sensibilità
La robotica sostituisce la attività umane, manuali. Mai dimenticare però che il termine robot (di origine ceca) rimanda al lavoro forzato: macchine utili a svolgere attività pericolose, pesanti e sgradevoli per gli uomini. Quando però il robot si fa umanoide si realizza la saldatura tra Intelligenza Artificiale (IA) e corporalità. Oggi la resistenza maggiore si registra quando le tecnologie, gli algoritmi possono sostituirsi alle nostre facoltà intellettuali. Un campo minato è il settore della giurisdizione (iuris-dictio), dove un essere umano, un giudice appunto, “dice” lo Ius, il diritto applicabile al caso singolo.
La tecnologia non ha pathos e sensibilità in quanto i cosiddetti segnali non verbali e i bio-segnali cerebrali decisivi per un’interazione sociale, sono assenti nei calcolatori. La loro lettura dei comportamenti umani resta un simulacro della realtà, essendo fondata sull’apprendimento continuo e costante di dati: l’IA li rielabora, prende decisioni, ci proietta davanti a scelte. Anche in ordine al ripetersi di tali comportamenti (ad esempio una potenziale recidiva del comportamento sanzionato), la tecnologia dei calcolatori algoritmici predice il futuro guardando il passato. Ne fece le spese Eric Loomis, cittadino statunitense, condannato alla pena di sei anni sulla scorta dell’alto punteggio risultante a suo carico da un algoritmo predittivo del rischio di recidiva (Compas: Correctional Offender Management Profiling for Alternative Sanctions).
I sette rischi della giustizia robotica
- Il primo. Come avvenuto nel caso Loomis – il vizio ontologico degli algoritmi che non selezionano tutti i possibili dati e fatti esistenti in natura riguardo ad una vicenda umana ma soltanto quelli definiti nelle istruzioni del programmatore e, dunque, la sentenza che ne promanerà non potrà che essere il prodotto di una lettura parziale della fattispecie concreta, magari più accurata di quella di un giudice umano, ma comunque incapace di rappresentare quella “discrezionalità tecnica” propria del giudice, che spesso adatta equitativamente la fattispecie fredda e astratta prevista dalla norma alle peculiarità calde e irripetibili del caso singolo.
- Il secondo problema sta poi nel fatto che l’errore dell’algoritmo non è trasparente, non è immediatamente evincibile, restando per lo più nella sequenza di istruzioni interne all’IA, diversamente da ciò che accade – stante il principio costituzionale del diritto alla difesa in ogni fase e grado del giudizio – in una sentenza giudiziaria che appunto deve sempre essere motivata.
- Terza preoccupazione, i criteri interpretativi delle norme non sono innocenti: ci sono giudici più fedeli alla lettera della legge, altri più inclini ad un’interpretazione attenta alle evoluzioni sociali e alla peculiarità del caso singolo. Chi deciderà il criterio guida dell’algoritmo?
- Quarto: la decisione robotica si rifarà necessariamente ai precedenti giudiziari. Già, ma quali? I precedenti, anche quelli dei giudici di legittimità sono spesso contrastanti. Occorrerà allora, prima di scrivere le istruzioni dell’algoritmo, definire convenzionalmente un criterio: ma questa scelta non potrà che essere demandata al legislatore, con evidenti rischi di contaminazione del potere giudiziario con quello politico-parlamentare.
- Quinto: l’IA come riempirà di significato quelle parti delle leggi che rimandano a valutazioni esterne al diritto come la “correttezza”, la “buona fede”, la “diligenza”, “clausole” queste, che, come finestre aperte sulla vita dei consociati, sono strettamente collegate alla lettura tutta contingente e transitoria dell’interprete magistrato.
- Sesto: la decisione robotica – stante la sua asserita infallibilità – finirà per affiancarsi alla “legge” per tutti gli altri casi che dovessero rientrare in quella vicenda già decisa. Così però il magistrato virtuale finirà per atteggiarsi a legislatore, con slittamento degli ordinamenti di civil law in sistemi di common law, bilanciati però non più dall’equity propria di quei sistemi ma da una problematica lex digitalis.
- Settimo vizio capitale: anche l’attuazione della decisione robotica sarà ovviamente automatica. E qui facciamo attenzione alla filiera di atti e comandi telematici che la comporranno.
Infatti un paradigma di IA cui la politica presta attenzione è la tecnica della blockchain (il Governo italiano ha appena firmato l’adesione dell’Italia alla “European Blockchain Partnership”). Si tratta – in sostanza – di una disruptive technology dove la verità non viene più acclarata da un soggetto terzo certificatore, ma dalla maggioranza degli utenti digitali, potremmo dire ‘tecnocrati’ della piattaforma informatica. Una blockchain è un registro o database aperto e distribuito che registra informaticamente transazioni tra le parti con carattere di “permanenza”, “verificabilità” ed “efficienza”, sfruttando una rete peer to peer che si collega ad un protocollo per la convalida dei nuovi blocks. Pertanto, la blockchain permette di ottenere garanzie tipiche di trust ed affidabilità che nel passato erano necessariamente legate ad una figura terza, un notaio o un pubblico ufficiale.
Blockchain, smart contract e smart judgement
All’interno della dimensione blockchain, in un rapporto di funzionalità, si collocano gli smart contracts o contratti “intelligenti”, ossia quei contratti che si eseguono automaticamente “da soli”. Lo smart contract, dando esecuzione immediata a una serie di clausole contenute nel programma negoziale, non allerta la persona contraente ma la pone davanti al fatto compiuto, attuando automaticamente quanto previsto nel contratto. Contratto e sentenza appartengono entrambi al genus degli atti vincolanti, il secondo – in più – assistito dall’autorità pubblica. Dunque, oggi smart contract e domani smart judgemnt. Ora, entrambi possono avvalersi della blockchain (che, come detto, è una sorta di “verità tecnologica”) per garantire che il codice che è alla loro base non possa essere modificato, che le fonti di dati che definiscono le condizioni di applicazione siano certificate ed affidabili, e che la lettura e controllo di queste fonti sia a sua volta certificata. Tipologie di smart contracts si rinvengono in quei contratti di assicurazione per autoveicoli, che, richiedendo l’utilizzo a bordo delle vetture di apparecchiature Internet of Things (IoT) per la trasmissione di dati sul comportamento del conducente, fanno sì che determinate condizioni contrattuali si attivino o disattivino automaticamente. Tutto muove, dunque, da una IA fondata su algoritmi.
Se, dunque, anche le decisioni giudiziarie robotiche si avvarranno della sequenza tecnologica blockchain–smart contracts (nella declinazione smart judgemet)-IoT, con l’estensione di un algoritmo applicativo al mondo degli oggetti e dei luoghi concreti, potranno allora darsi esecuzioni automatiche delle sentenze come la sottrazione automatica di una somma cui si è stati condannati direttamente dal conto corrente oppure la preclusione all’accesso dell’abitazione ove se ne accerti, attraverso un protocollo di blocks, che essa è di proprietà altrui.
La verità tecnologica dell’algoritmo sarà la verità del diritto che irradierà il suo enforcement direttamente sui cittadini e i loro beni.
Oggi, dunque, più che in altri periodi storici, occorre sintonizzare una riflessione sulla coscienza della giurisdizione, recuperando il primato di quel ragionamento, sintesi di competenza ed equità, sull’apparente ineluttabilità di un sistema giudiziario basato su decisioni/sanzioni robotiche per definizione aliene da quell’atteggiamento unico e per certi versi compassionevole (da cum patior, soffro con) che appartiene soltanto a chi giudica i suoi simili.