Legal design e AI possono essere legati tra di loro? Quali caratteri hanno in comune questi due strumenti, così apparentemente diversi?
Ma soprattutto il legal design può essere utilizzato dall’AI al fine di creare un output che possa rispettare le caratteristiche intrinseche del legal design?
Bisogna andare con ordine, ma la risposta è positiva: l’intelligenza artificiale può utilizzare l’approccio del legal design per produrre un output che sia user centered.
La vera domanda, tuttavia, che ci si deve porre, a parere di chi scrive, è relativa non tanto alla possibilità, o alle “capacità” dei sistemi di AI, di utilizzare il legal design, ma riguarda, piuttosto, la tipologia di risultato che viene prodotto.
Legal Design: una definizione
Il legal design, secondo la definizione fornita da Margaret Hagan è “l’applicazione dell’UX design al mondo legale, al fine di rendere i sistemi e i servizi legali più umano-centrici, fruibili e soddisfacenti” per l’utente.
Partendo da tale indicazione, gli elementi caratteristici di questo diverso approccio al mondo legale sono fondamentalmente tre, ossia:
- Deve essere human-centered;
- Deve essere universale, ossia deve essere compreso da tutti i soggetti ai quali è indirizzato;
- Design thinking oriented, ovvero orientato al pensiero progettuale nel senso che è necessario strutturare in modo preciso e puntuale la modalità con la quale veicolare il messaggio giuridico.
È quindi fondamentale che venga semplificato il rapporto tra l’utente e il mondo giuridico (sia che si faccia riferimento a documenti o a norme giuridiche) in modo che la norma o il documento, attraverso questo approccio, risultino più intuitivi, chiari e comprensibili.
La programmazione: da dove parte tutto
Ciò che l’AI è in grado di realizzare, ossia la tipologia dell’output che può produrre e restituire a chi ha inserito l’input, dipende dalle modalità con le quali l’algoritmo è stato programmato e dalle potenzialità che lo stesso può avere.
Se quindi la domanda è relativa alla possibilità che sistemi di AI utilizzino e applichino l’approccio del legal design, la risposta non può che essere affermativa.
Ciò sul quale, al contrario, dovremmo interrogarci è la modalità con la quale questo approccio può essere applicato dall’AI.
Come sappiamo i sistemi di intelligenza artificiale sono algoritmi che vengono programmati in virtù di un codice informatico che può avere innumerevoli variabili, ma che, ovviamente, è legato alla modalità di programmazione del singolo programmatore.
In altre parole la correlazione tra algoritmo e programmatore è una sorta di vincolo indissolubile che riporta, nella stesura del codice, le caratteristiche proprie del programmatore che, quel codice, lo ha materialmente scritto.
In questo caso tra l’input e l’output, ossia il documento realizzato con il legal design, deve esserci un collegamento, l’algoritmo, che non sarà solo ed esclusivamente “codice”, ma dovrà avere caratteristiche tali da conoscere elementi giuridici ed elementi di design che, combinati insieme, possano produrre quello specifico output, il legal design, di cui si discute.
I bias nell’AI e il legal design
Ci sono e ci saranno sempre di più sistemi che, dato uno specifico input, saranno in grado di fornire documenti legali che rispecchino l’approccio del legal design, ma l’attenzione dovrà essere rivolta alla correttezza e all’accuratezza degli output forniti.
Certo, è possibile, che l’inesattezza dipenda da algoritmi contenenti errori, algoritmi imprecisi o riportanti i bias del proprio programmatore.
Quello che, però, dobbiamo considerare è che se, come visto, la macchina può sbagliare, è altrettanto possibile che la macchina elabori un dato errato o impreciso perché inserito, questa volta dal fruitore del sistema di intelligenza artificiale, in maniera non corretta o non precisa.
Ecco, quindi, che, anche laddove l’algoritmo fosse “perfetto” (utilizziamo questo termine non a caso), il risultato, ossia l’output, risulterebbe errato.
Esistono, già oggi, sistemi che vengono utilizzati da moltissimi utenti in maniera acritica solo perché velocizzano il processo o hanno un costo contenuto.
Ma cosa succede, in termini di conseguenze, a causa di questi errori?
La questione della responsabilità nell’uso dell’AI
Possiamo legittimamente aspettarci che un sistema automatizzato fornisca, per esempio, documenti creati con l’utilizzo del legal design, già “pronti all’uso” e che siano, pertanto, immediatamente fruibili? Possiamo ritenere che, stante la possibilità per un algoritmo di applicare il legal design, il risultato fornito sia esente da vizi ed errori?
La risposta, in questo caso, è negativa.
Senza addentrarci in quelle che sono le pieghe di un tema piuttosto complesso e delicato, basti, in questo contesto, considerare che gli eventuali errori, le possibili imprecisioni, le criticità che dovessero emergere da questo impiego dell’AI riverbererebbero le proprie conseguenze legali sul soggetto fruitore del sistema di intelligenza artificiale.
L’importanza del controllo umano nei processi automatizzati
La supervisione e il controllo umano, tuttavia, non dovrebbe essere limitato o focalizzato unicamente nella fase di verifica del risultato ottenuto, ma, del pari, si dovrebbe estendere anche a quella di analisi dei dati inseriti nel sistema.
Può sembrare così strano?
Basta fare un’analisi della documentazione relativa alla protezione dei dati che si può trovare online: un controllo preventivo eliminerebbe alla radice molte violazioni del GDPR.