Ad oggi l’intelligenza artificiale ha una amplissima diffusione, in svariati ambiti, tanto da poter condividere l’opinione di quanti definiscono la nostra una “società algoritmica”, basata su modelli decisionali automatizzati.
Tuttavia, comprendere a cosa ci si riferisca nel dibattito pubblico quando si parla di intelligenza artificiale e di decisioni algoritmiche non è semplice. Ciò, poiché al medesimo concetto vengono ricondotti sistemi anche tra loro molto diversi.
Senza pretesa di esaustività, può aiutare soffermarsi sulle principali distinzioni presenti all’interno di questo macrocosmo, andando quindi a esaminare i contenuti di un recente white paper della Commissione europea: “A European approach to excellence and trust”, che supporta approccio all’IA umano ed etico per promuovere e favorire l’innovazione.
Intelligenza artificiale “debole”: i modelli principali
Lasciando da parte i riferimenti alle ipotesi di IA cosiddetta forte, modello che ha in sé tutte le caratteristiche di una mente umana, con capacità di pensiero, ragionamento e giudizio, le ricerche maggioritarie sono concentrate su quella che viene definita l’IA “debole”.
Ma anche all’interno di tale categoria sono ricondotti sistemi molto diversi. Sintetizzando estremamente è possibile distinguere due modelli principali: il primo si basa sulla rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragionamento, e vale a identificare i cosiddetti sistemi basati su regole o sistemi esperti.
Essi si fondano sull’uso delle conoscenze specialistiche dell’uomo, che vengono trasferite all’interno del sistema, mediante rappresentazioni simboliche e producono determinati risultati. Si tratta di sistemi capaci di gestire anche rilevanti quantità di informazioni e di regole, il cui impiego può supportare notevolmente l’attività decisionale umana.
Per chiarezza, il MIUR ha commissionato lo sviluppo di un sistema di questo tipo, per esaminare le numerose richieste di assegnazione del personale docente, sulla base della normativa cosiddetta “della buona scuola”.
Algoritmi nelle decisioni della PA, i paletti del Consiglio di Stato
Come noto, tale vicenda ha dato luogo ad un caso giudiziario che ha visto le nostre corti amministrative regionali pronunciarsi più volte, seguite da alcuni arresti del Consiglio di Stato, anche molto recenti.
Di questa giurisprudenza si parla diffusamente, ed a ragione, poiché i giudici amministrativi hanno dovuto interrogarsi sulla natura giuridica del procedimento algoritmico, hanno evidenziato i vantaggi delle decisioni assunte dalle macchine, scevre da condizionamenti e storture che caratterizzano, invece, i processi cognitivi e le scelte compiute dagli esseri umani. Ma, il Consiglio di Stato, da ultimo ha individuato due chiari limiti all’utilizzabilità di tali sistemi:
- la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati;
- l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere verifiche su logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
Il machine learning
Se il modello descritto ha dato origine alle riflessioni sopra accennate, il secondo schema, fondato sulla “rappresentazione implicita della conoscenza, organizzato in reti neurali, e sulla sua elaborazione mediante l’attivazione di tali reti”[1], apre questioni ancora più complesse.
Sistemi di tal fatta si basano sul cosiddetto apprendimento automatico (machine learning), applicato a grandi masse di dati. In questi casi si parla di reti neurali, concetto che vale ad identificare un modello informatico composto da unità, chiamate neuroni e da una serie di connessioni tra loro. Il sistema si compone di algoritmi che regolano il funzionamento dei singoli nodi, nonché da un algoritmo generale, che disciplina il funzionamento della rete stessa, ovvero il modo in cui i singoli nodi e le connessioni andranno a modificarsi a seguito dell’input fornito.
Il professore Giovanni Sartor spiega che, in questo caso, il sistema “costruisce automaticamente un suo modello di dominio, a partire dall’analisi dei dati su cui è addestrato, sulla base di un algoritmo di apprendimento automatico. Usando tale modello, il sistema genera classificazioni, valutazioni e previsioni su nuovi casi che gli sono sottoposti”.[2]
In queste ipotesi il concetto di “intelligenza”, evidentemente, non identifica la capacità del sistema di condurre un ragionamento, bensì la sua attitudine ad apprendere dall’esperienza.
Attualmente, si riscontra una maggior diffusione ed impiego delle reti neurali, ciò in ragione dello sviluppo esponenziale di dati a disposizione e dell’aumentata capacità computazionale dei programmi per elaboratore.
La posizione della Ue sull’intelligenza artificiale
Le due tipologie di modelli operano in maniera autonoma ma, come si legge nel white parer sull’intelligenza artificiale pubblicato dalla Commissione Europea pochi giorni fa, l’auspicio è quello di creare dei collegamenti tra i sistemi di machine e di deep learning (che, come visto, sono connotati da una limitata interpretabilità) e quelli ad “approccio simbolico” (ovvero i modelli basati su regole create con l’intervento umano). Ciò al fine di accrescere la “spiegabilità” dei prodotti generati dalla prima tipologia di sistemi.
Quanto premesso dovrebbe da subito far capire che parlare in generale di intelligenza artificiale e di algoritmi, di per sé, non basta ad identificare i processi compiuti dagli elaboratori e, conseguentemente, non vale a far emergere il contesto di riferimento.
Fatta questa premessa, la complessità del tema è limpidamente esposta nell’incipit del white paper: “Artificial Intelligence is developing fast. It will change our lives by improving healthcare (e.g. making diagnosis more precise, enabling better prevention of diseases), increasing the efficiency of farming, contributing to climate change mitigation and adaptation, improving the efficiency of production systems through predictive maintenance, increasing the security of Europeans, and in many other ways that we can only begin to imagine. At the same time, Artificial Intelligence (AI) entails a number of potential risks, such as opaque decision-making, gender-based or other kinds of discrimination, intrusion in our private lives or being used for criminal purposes”.
Nelle parole della Commissione, da una parte, emergono l’evidenza e la inarrestabilità dello sviluppo di tali sistemi, che portano indubbi ed irrinunciabili vantaggi, dall’altra, non devono essere sottovalutati i rischi per i diritti e le libertà fondamentali.
Discriminazioni ed ingerenza nella vita privata dell’individuo sono due delle principali criticità che tali sistemi possono comportare.
Le criticità da valutare nella realizzazione di un quadro regolamentare
Per questo, la realizzazione di un framework regolamentare che si ponga come presidio per la tutela dei diritti e delle libertà fondamentali deve muoversi in molteplici direzioni. Alcuni dei problemi che richiedono una attenta valutazione attengono:
- alla individuazione dei dataset utilizzabili per addestrare i sistemi.
E’ necessario, infatti, evitare il più possibile la presenza di bias impliciti, che portino un’alterazione in nuce del processo di elaborazione. Come esempio, possiamo citare il famoso caso dell’applicazione google photos, che consentiva di etichettare immagini in base al loro contenuto, il quale, tuttavia, non è risultato in grado di distinguere un cittadino afroamericano da un gorilla.
Ma, anche dataset privi di bias iniziali possono portare a decisioni discriminatorie, ciò sulla base di due considerazioni: l’una derivante dal fatto che i sistemi di meachin learning non sono in grado di cogliere la distinzione tra una semplice correlazione ed un collegamento causale e, l’altra, a causa del cosiddetto effetto di autorinforzo del modello, che si fonda su nuovi dati incorporati nel dataset.
Al fine di ridurre al minimo possibili i bias, gli studiosi suggeriscono di eliminare dai dataset i dati cosiddetti sensibili, ma anche ciò non pone completamente al riparo da eventuali distorsioni, alla luce della sempre maggior diffusione di dati “inferiti”, dai quali è possibile estrapolare informazioni ulteriori rispetto a quelle iniziali.
- Alla necessità di distinguere tra decisioni basate su trattamenti interamente o parzialmente automatizzati.
Il tema, dunque, del controllo umano in caso di decisioni che si basino esclusivamente su sistemi di IA deve essere approfondito. Non sfugge, in primo luogo, la complessità nel distinguere le ipotesi in cui un procedimento possa dirsi interamente o, solo parzialmente, automatizzato.
In secondo luogo, questa indagine comporta delle riflessioni di più alto livello, tese a comprendere se e quale condizionamento, sulla libertà di discernimento umana, eserciti la decisione presa dalla macchina. L’ulteriore complicazione si avverte allorquando il sistema di IA si basa sull’apprendimento automatico, ove risulta impossibile comprendere la motivazione che ha condotto l’elaboratore ad adottare una data decisione. In tali casi, la probabilità di un approccio fideistico, sul timore di responsabilità connesse ad un eventuale discostamento, rispetto alla decisione algoritmica, è un elemento che deve essere tenuto in considerazione.
- All’individuazione delle responsabilità di natura civile e penale connesse all’uso di tali sistemi, ovvero all’imputabilità delle decisioni elaborate dall’IA; temi che sembrano richiedere una valutazione di compatibilità con gli attuali principi generali del diritto.
Ma sono molte altre le questioni aperte che dovranno essere affrontate e su cui qui non ci si sofferma.
Analisi di applicazioni di IA in uso in ambito legale
Tuttavia, cercando di dare un contributo pragmatico al tema, è interessante analizzare alcune applicazioni di IA attualmente in uso.
Il sistema CLAUDETTE
Nel contesto legale, è rilevante il sistema CLAUDETTE “automated clause detecter”, un progetto multidisciplinare che coinvolge l’Istituto europeo di Firenze e le Università di Bologna, Modena e Reggio Emilia.
La ricerca ha come obiettivo l’automatizzazione della lettura e, soprattutto, della valutazione giuridica di testi legali, in particolare, di contratti online con consumatori e privacy policy. L’esperimento si basa sull’uso della tecnologia di machine learning supervisionato: il sistema, infatti, è stato addestrato mediante l’uso di migliaia d frasi catalogate da esperti legali e qualificate come abusive, non chiare o non conformi all’ordinamento. A questo indirizzo è presente un link ad una versione beta, accessibile liberamente, dove poter testare il sistema, inserendo i testi contrattuali ed ottenendo quale risultato l’individuazione di eventuali clausole non conformi a diritto, suddivise in base alla tipologia di problematica riscontrata.
Questo interessante esperimento mostra le potenzialità dell’impiego di sistemi di apprendimento automatizzato che, addestrati mediante l’uso di un set di dati classificato dall’uomo, sono in grado di riconoscere le possibili violazioni. Si tratta, dunque, di uno strumento che nell’idea di sviluppo, potrebbe essere utilizzato dai consumatori, come presidio di legalità, onde verificare se le condizioni contrattuali che ci troviamo a sottoscrivere per l’erogazione di servizi online, ovvero se le privacy policy elaborate dai fornitori di servizi della società dell’informazione, siano conformi o meno alla normativa.
Il sistema Prometea
Un’altra esperienza molto interessante, sotto il profilo dell’automazione dei processi nel mondo delle PA, è rappresentata da Prometea. Si tratta di un sistema di IA sviluppato dal laboratorio di innovazione e intelligenza artificiale della Facoltà di Giurisprudenza dell’Università di Buenos Aires e della Procura della Città Autonoma di Buenos Aires.
Anch’esso usa tecniche di apprendimento automatico e di clustering supervisionato ed è in grado di automatizzare documenti ed eseguire ricerche, con l’obiettivo di ottimizzazione dei processi nell’ambito della PA. Nel corso del convegno in tema di Giustizia predittiva organizzato da AIGA Nazionale a Roma, il 7 febbraio scorso, il professor Le Fevre Cervini ha esposto il programma Prometea, definendolo come un tool “che opera nel settore giustizia, progettato con white box, senza storage di dati e senza sostituzione del giudice”. I due brevi video esplicativi del progetto hanno reso conto degli indubbi vantaggi in punto di produttività e di efficienza nella preparazione di pareri legali, consentendo l’impiego delle risorse umane in modo migliore.
Nel settore legale privato il panorama di applicazioni di intelligenza artificiale è numeroso. La finalità prevalente è quella di automatizzare attività a basso valore aggiunto, quali l’analisi e la predisposizione di note legale o di revisione documentale. I sistemi di più ampia diffusione usano tecniche di machine learning supervisionato, ma ve ne sono anche di tipo non supervisionato, in grado di automatizzare il check di documenti, ad esempio nel settore del credito.
I benefici dell’impiego di tali sistemi sono senz’altro il maggior grado di efficienza e velocità nelle ricerche legali e nelle attività di due diligence, con un minor impiego di risorse umane, nonché, in alcuni casi, la prevedibilità dell’esito di azioni giudiziali.
Il tema della giustizia predittiva nella Carta etica Ue
Tale ultimo concetto fa correre la mente a un tema di amplissima portata, sul quale non è il caso di addentrarci in questo momento, ovvero il tema della giustizia predittiva. Sia consentito solo dire che con tale concetto nella Carta etica sull’uso dell’intelligenza artificiale, elaborata dalla Commissione nel dicembre 2018, e nelle sue appendici, viene detto chiaramente che il livello di sviluppo delle tecniche di apprendimento automatico, al momento, non è in grado di fornire risultati affidabili circa la capacità di “predire” l’esito delle decisioni giudiziarie.
Il documento esamina i diversi utilizzi della IA nei sistemi europei ed incoraggia la loro applicazione, pur in diversa misura.
In particolare, tra gli utilizzi che devono essere incoraggiati si trovano: la valorizzazione del patrimonio giurisprudenziale, l’accesso al diritto (es. chatbot per facilitare l’accesso alle informazioni esistenti) e la creazione di nuovi strumenti strategici (ad esempio, sistemi di valutazione delle performance e di ottimizzazione dei processi).
Tra i sistemi qualificati come di possibile utilizzo, ma che “esigono notevoli precauzioni metodologiche”, compaiono l’analisi di decisioni giudiziarie, la risoluzione delle controversie online e l’uso di algoritmi nelle indagini penali, al fine di individuare i luoghi in cui sono commessi reati.
Tra gli utilizzi il cui esame è rimandato al termine di studi scientifici supplementari è collocata la profilazione dei magistrati. Interessante, infine, è la categoria “utilizzi da esaminare con le più estreme riserve” in cui è inserita l’ipotesi di norme basate sull’insieme di decisioni, ovvero l’idea di fornire a ciascun giudice il contenuto delle decisioni prodotte da tutti gli altri giudici e di pretendere che la sua scelta futura debba essere necessariamente compresa nella massa di tali precedenti.
Conclusioni
In conclusione, il tema dell’intelligenza artificiale, delle decisioni algoritmiche e di tutto ciò che ne discende non è uno dei tanti temi che dovranno occupare il dibattito pubblico attuale e dei prossimi anni ma, probabilmente, è il tema principale. Se è vero che ci troviamo in una società algoritmica, le dinamiche sociali si muovono all’interno di tale dimensione, al punto da informare l’intero vivere sociale.
Nel corso del convegno tenutosi a Roma in tema di giustizia predittiva, organizzato da Aiga Nazionale, Luca Baraldi della società Energy way ha introdotto una questione che dovrebbe indurre molte riflessioni, evidenziando come sia in atto una vera e propria rivoluzione epistemologica, che richiede di “affrontare con uno sguardo critico e prudente il tema dell’addestramento dell’intelligenza artificiale, e focalizzare bene l’attenzione anche sulla necessità di un’etica del dato e non solo di un’etica dell’intelligenza artificiale, e accettare la responsabilità di promuovere modelli di educazione avanzata e di alfabetizzazione sociale a tutte le età e in tutte le categorie.”
E’ evidente, quindi, che il dibattito pubblico debba essere sempre alto e vada stimolato quanto più possibile. Far finta che l’evoluzione tecnologica in atto interessi solo alcune discipline, non è realistico. Proprio la trasversalità della materia deve stimolare confronti multidisciplinari, ove esperti dei vari settori portino le proprie esperienze e le proprie competenze, affinché sia garantito un approccio umano ed etico, rispetto alle implicazioni dei sistemi di IA ed all’utilizzo dei big data per promuovere e favorire l’innovazione, così come auspicato dalla Commissione Europea nel white parer di pochi giorni fa.
_________________________________________________________________
- G. Sartor in “L’informatica giuridica e le tecnologie dell’informazione”, G. Giappichelli, 2016,279 ↑
- G. Sartor “Quando a decidere in materia penale sono (anche) algoritmi e IA: alla ricerca di un rimedio effettivo”, di G. Contissa, G. Lasagna, G. Sartor,in Diritto di Internet, n.4/19, 619 ↑