L’intelligenza artificiale vive una fase di incontro/scontro con la classe forense: termini come Legal AI (ossia l’applicazione dei processi di intelligenza artificiale al mondo dell’informatica giuridica, nel lavoro degli avvocati), Legal Bot ci faranno sempre più compagnia; così come d’altro canto l’intelligenza artificiale entra sempre più nel lavoro anche dei giudici.
Sui media rimbalzano notizie che danno risalto a sonore sconfitte inferte da intelligenze artificiali ai danni di stimati colleghi statunitensi (dopo gli scacchisti e i campioni di go, tocca agli avvocati). Anche in Italia gli avvocati iniziano a far entrare nei propri studi forme di AI in grado di aiutarli. Ma anche di sostituirli nello svolgimento di compiti routinari.
Che cosa (non) è l’intelligenza artificiale
Intanto, bisogna tenere conto che comunque non stiamo parlando di vera intelligenza (intesa come capacità di scelta consapevole, autonoma e razionale), altrimenti non ci preoccuperemmo della responsabilità del produttore o di tutela del copyright di questi software, ma piuttosto della capacità giuridica dell’AI e del suo eventuale involucro hardware, e dei suoi diritti civili.
Gottfried von Leibniz, che fu un giurista e magistrato, andava affermando che: “È indegno per l’uomo eccellente perder tempo come uno schiavo nel lavoro di calcolare, cosa che potrebbe essere relegata senza problemi a qualcun altro se fosse usata una macchina.”
Quattrocento anni dopo l’affermazione di Leibniz, le potenzialità delle macchine sono aumentate in una misura tale che il giurista tedesco avrebbe faticato ad immaginare, come nel 1600, però, ci sono persone che vedono l’opportunità in questo cambiamento, e persone che invece si aggrappano al loro lavoro da “schiavi” timorosi che un algoritmo possa portarglielo via.
L’Intelligenza Artificiale in sé è invece un fenomeno ben più complesso da definire e che ha subito, nel tempo, sensibili innovazioni.
Da un lato infatti c’è chi definisce il fenomeno dell’intelligenza artificiale con un criterio “formale”, includendo nel concetto di AI tutti quei sistemi software ed eventualmente anche hardware, che si presentano come simulazione di un processo cognitivo umano.
Dall’altro lato c’è chi invece pretende un certo grado di “qualità” in questo processo, includendo nel novero delle AI solamente quei software (ed eventualmente anche hardware) che, dato un obiettivo complesso, agiscono nel mondo fisico o digitale percependo l’ambiente in cui operano (attraverso l’acquisizione di dati in forma strutturata o non strutturata, la loro interpretazione e l’elaborazione dell’informazione ottenuta) e decidendo di conseguenza il percorso migliore per ottenere l’obiettivo prefissato.
Quella da ultimo citata è ad esempio la definizione che è stata fatta propria dal gruppo di esperti sull’Intelligenza Artificiale dell’UE nel documento reso pubblico l’8 aprile scorso dalla Commissione Europea.
Secondo la definizione appena vista, ad esempio, molti chatbot non rientrerebbero nel novero delle AI, essendo piuttosto dei semplici “compilatori automatici” che si presentano come esseri umani solo per facilitare l’interazione uomo-macchina.
La Commissione Europea vira infatti verso una definizione più stringente di intelligenza artificiale, che richiede necessariamente un software che simuli un complesso processo di ragionamento e/o che sia in grado di imparare (deep learning, machine learning).
AI e avvocati, il supporto di LawGeex
Non vera intelligenza, dunque. Parliamo quindi di macchine che, ad oggi, non possono essere considerate davvero intelligenti, eppure possono aiutare in molti modi il professionista del diritto e questo semplicemente perché, fortunatamente (o sfortunatamente a seconda dei punti di vista), il lavoro dell’avvocato, per una fetta importante della professione, non richiede vera intelligenza, ma richiede piuttosto conoscenza di regole da applicare, con meccaniche sillogistiche, ad un caso concreto.
E questa è una cosa che l’Intelligenza Artificiale sa fare molto bene e in tempi incredibilmente rapidi. Nel 2018 si è svolta una singolare sfida fra 20 legali americani specializzati in contrattualistica e diritto commerciale e una AI: LawGeex. La sfida prevedeva una revisione di accordi di riservatezza (Non-Disclosure Agreements).
I risultati della sfida hanno visto vincere l’AI con una precisione del 94% nella revisione documentale a fronte dell’85% da parte dei legali. Il dato più impressionante, come era da aspettarsi, riguarda però i tempi: 26 secondi per la revisione da parte dell’AI contro i 92 minuti necessari ai legali. LawGeex non è un prodotto che fa concorrenza agli studi legali, ma si offre al contrario come supporto per una più efficiente e rapida revisione documentale da parte degli avvocati stessi, il loro slogan infatti è: “Don’t work like a Robot“.
E gli strumenti che, come LawGeex, possono aiutare la professione forense, anche in Italia, sono davvero numerosi e interessanti.
I “Legal Bot” e la razionalizzazione del lavoro forense
Un esempio di AI che potrebbe presto entrare a far parte del quotidiano degli studi legali è quello dei cosiddetti legal bot, strumenti che a volte si contrappongono (ad es. Do Not Pay che permette di contestare multe per divieto di sosta nel Regno Unito ed in alcune città statunitensi o Volo Risarcito Gratis che permette di verificare se il ritardo o la cancellazione del volo, o ancora lo smarrimento o danneggiamento del bagaglio, possano dare diritto al risarcimento del passeggero) a volte si affiancano all’attività del professionista, aiutandolo nella gestione del cliente e nella ricerca di soluzioni giuridiche.
Tra questi ultimi strumenti si possono citare, ad esempio, Prisca, un chat-bot basato su IBM-Watson attivo su Telegram che fornisce risposte in tema privacy e diritto industriale, Legal Bot, un’AI connessa ad una piattaforma per smart-contract (basata sulla blockchain di Ethereum) che guida l’utente nella realizzazione del “contratto” desiderato, Billy Bot, che suggerisce all’utente il giusto legale o mediatore sulla base delle esigenze specifiche del caso, fornendo inoltre loro informazioni giuridiche di base, Robot Lawyer LISA (LISA sta per Legal Intelligence Support Assistant), che crea Non-Disclosure Agreements dopo aver posto all’utente una serie di domande e infine Autom.io, un bot che può essere utilizzato in locale o su sito web e gestire interviste ai clienti da remoto o acquisire i loro dati direttamente durante il colloquio, il cui motto è: “Let clients serve themselves”.
Quelle appena elencate non sono, nella maggior parte dei casi, vere e proprie Intelligenze Artificiali (specie nella definizione proposta dal Gruppo di Esperti della UE), quanto piuttosto compilatori automatici che, per scelta estetica, si presentano come umani così facilitando l’interazione con l’utente.
Questa semplice scelta di maquillage ha però riflessi importanti sulla predisposizione e disponibilità del cliente a fornire dati che poi potranno essere utilizzati direttamente dal legale rendendo più efficiente la fase di primo contatto o addirittura precedente.
I Legal Bot sono quindi forse il primo, semplice, passo, che gli avvocati italiani possono fare nella direzione dell’Intelligenza Artificiale, percependone immediati benefici.
Questi piccoli strumenti possono infatti invogliare la clientela a farsi carico dell’attività compilativa che altrimenti dovrebbero pagare al legale, riportando sul cliente ad esempio quell’attività di popolamento di anagrafiche e altri dati della causa che inizialmente era di pertinenza delle Cancellerie e di cui ora, con l’avvento dei vari Processi Telematici, si devono occupare gli avvocati.
Mentre agli avvocati questa scelta è stata calata dall’alto, senza possibilità di scelta, grazie all’AI è possibile “esternalizzare” e ridistribuire in maniera efficiente quest’attività, consentendo al cliente, se vuole, di occuparsi dell’attività compilativa, pagando l’avvocato solamente quando questo si occupa di attività ad alto valore aggiunto.
Un ulteriore obiettivo che gli studi legali potrebbero raggiungere con l’aiuto di Intelligenze Artificiali è quello della razionalizzazione del lavoro dell’avvocato.
Tornando all’esperimento di LawGeex, di cui abbiamo parlato in apertura dell’articolo, se guardiamo al fatto che l’AI individua il 94% degli errori in 26 secondi mentre il legale ne individua l’85% in 92 minuti, quello che balza all’occhio non deve essere l’obsolescenza della professione legale, quanto il fatto che il lavoro del legale, il suo valore aggiunto, è in quel 6% che la macchina non è in grado di rilevare, 6% di cui magari l’avvocato faticherebbe ad accorgersi dopo 96 minuti di lavoro concentrati a correggere inezie e di cui potrebbe garantire l’esame, lavorando meglio, se fosse supportato da un AI software nel suo lavoro.
La giustizia predittiva
Un altro ambito è quello della giustizia predittiva, intesa non tanto come strumento che possa sostituire il giudice umano, quanto come strumento che consenta al legale di prevedere con un maggior grado di certezza l’esito del giudizio.
Con i dataset attuali di decisioni giudiziali sarebbe infatti sicuramente possibile individuare con precisione quante altre volte un caso come quello che l’avvocato si accinge ad affrontare è stato deciso da una corte e con che esiti.
Il ragionamento è poi scalabile se pensiamo alla possibilità di attingere alle decisioni dei 28 paesi UE, alle prese con un diritto sempre più armonizzato a livello comunitario ma sulle quali non possiamo fare affidamento per ostacoli linguistici, particolarmente ostici quando si tratta di tradurre concetti ed istituti giuridici.
Servirà un’Intelligenza Artificiale per tradurre i concetti giuridici e permetterci di “navigare” tra i dati delle decisioni delle varie corti europee e di individuare ciò che è davvero rilevante per il nostro caso, in un processo di e-Discovery immediato ed efficace.
Intelligenza Artificiale per la pubblica sicurezza: utilizzi e rischi sociali
L’automazione delle decisioni giudiziali
Un altro sviluppo dirompente che potrebbe avere l’AI in ambito legale è quello connesso con gli sviluppi nell’automazione delle decisioni giudiziali, alla ricerca di un giudice che sia davvero imparziale.
In Estonia ad esempio con on un progetto pilota nel 2017 sì è iniziato ad affidare ad un software dotato di capacità di machine learning l’assegnazione dei sussidi agli agricoltori. L’agricoltore dimette la richiesta e l’AI esamina pixel per pixel le immagini satellitari raccolte dall’ESA per assegnare i contributi.
Al contempo il meccanismo aiuta a comminare sanzioni nel caso in cui il profilo dei confini delle piantagioni evidenzi una illegittima “espansione” a detrimento delle zone boschive. Si sta inoltre oggi sviluppando un “Giudice Robot” che dovrebbe essere in grado di risolvere controversie minori istantaneamente e che dovrebbe iniziare a breve la fase di prima sperimentazione.
Con l’AI giustizia più equa o fonte di discriminazione?
In Francia è in fase di test alla Corte d’Appello di Rennes e all’Ordine degli Avvocati di Lille Predictice, un software che esamina i precedenti e suggerisce una decisione adattabile al caso concreto, fornendo anche agli studi legali uno strumento per stimare le probabilità di successo di un caso.
L’obiettivo di questa AI è proprio quello di fornire da supporto a magistrati e avvocati per rendere la somministrazione della giustizia più prevedibile ed equa, con il fine di:
“put an end to this justice that was unpredictable, random and disparate over the country and move towards something a bit more logical, scientific or, at the very least, a little more controllable.”
Ulteriore esempio interessante è senz’altro quello di Compas, AI software statunitense che determina la probabilità che un soggetto commetta nuovamente il reato per cui è stato condannato, con il grado di potenziale recidivismo che influisce sulla pena e sulle misure di sorveglianza.
Negli Stati Uniti l’utilizzo di questi sistemi sta andando incontro a numerose critiche e si discute in particolare sulla possibilità di opporsi al trattamento automatizzato e sul diritto a conoscere le logiche di funzionamento dell’AI.
Le aziende che sviluppano i software come Compas si oppongono però alle istanze tese a conoscere il funzionamento del software, affermando che si tratta di informazioni tutelate da segreto industriale.
Oltre al problema legato al segreto industriale, qualcuno fa notare come la disclosure del “ragionamento” alla base di un’AI come Compas (es. la circostanza x equivale ad 1 “punto recidiva”, mentre la circostanza y equivale a 1/2 “punto recidiva” e così via) renderebbe probabilmente il meccanismo inutile o comunque senz’altro meno efficiente.
È chiaro infatti che, conoscendo i “segnali di recidiva” presi a riferimento dal software, i criminali cercheranno di non replicare tali segnali per falsare, in positivo, il punteggio.
Si verrebbe così a creare una situazione simile a quella per cui i soggetti che intendono ricorrere al credito negli Stati Uniti si affidano spesso a “guide” che suggeriscono determinati comportamenti “spia” di affidabilità creditizia (ad esempio l’acquisto di “feltrini” dopo l’acquisto di un mobile, che sarebbe indice di un atteggiamento responsabile, correlato a più elevate percentuali di integrale restituzione del finanziamento).
Questa segretezza ha generato sospetto e diffidenza nei confronti dei software utilizzati per aiutare i giudici americani, con uno studio di ProPublica che addirittura accusa l’AI Compas di essere razzista, evidenziando che:
“the formula was more likely to falsely flag black defendants as future criminals, whereas white defendants were more likely mislabeled as low risk.”
Il controllo dell’uomo sulle decisioni automatizzate
Si tratta, con tutta probabilità, di una semplice correlazione, ma è comunque indice di un problema di fiducia nel software che potrebbe addirittura aggravarsi in futuro. Man mano che si affinano le tecnologie di Intelligenza Artificiale diventa infatti più complesso il controllo umano e la spiegazione delle logiche di funzionamento del software.
L’intelligenza artificiale “forte”, che esamina quantità estreme di dati ed è dotata di sistemi di deep learning, di fatto non è creata per essere capita.
Quando si pretende di far imparare la macchina, il programmatore finisce per perdere il controllo, basta pensare ai 15 terabyte di dati che produce ogni ora un veicolo a guida autonoma, se questa macchina impara (ed anzi se impara condividendo informazioni con tutte le altre vetture della stessa casa produttrice in circolazione) è ben difficile capire quale byte in quei 15 terabyte ha fatto scattare la decisione della vettura, quale byte è la causa efficiente o la “goccia che fa traboccare il vaso” nel caso sia un meccanismo incrementale a determinare la scelta dell’AI.
I freni del Gdpr
Questi sviluppi pongono nuovi problemi con cui dovremo sicuramente confrontarci, lo sviluppo della AI porta a meccanismi sempre più capaci di risolvere problemi, ma che comprendiamo sempre meno, fino ad arrivare alle cosiddette tecnologie Black-box, per le quali non è in alcun modo possibile tracciare a ritroso il percorso logico-informatico che ha portato ad una certa decisione.
Venendo invece al contesto europeo, questi scenari troveranno senz’altro freno nella normativa GDPR, che all’art. 22 prevede il diritto del cittadino di “non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” e all’art. 14 impone di fornire all’interessato, in caso di decisione automatizzata “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”.