Intelligenza Artificiale

AI nel legal design: una sinergia è possibile?



Indirizzo copiato

Il legal design, che rende i sistemi legali più accessibili e user-centered, può essere utilizzato dall’AI per creare output efficaci. Tuttavia, la qualità del risultato dipende dalla programmazione dell’algoritmo e dalla precisione degli input. La responsabilità legale e la supervisione umana rimangono cruciali per garantire l’accuratezza dei documenti prodotti

Pubblicato il 25 giu 2024

Federica De Stefani

avvocato e docente di Digital Media Law presso Università degli Studi Link



dematerializzazione

Legal design e AI possono essere legati tra di loro? Quali caratteri hanno in comune questi due strumenti, così apparentemente diversi?

Ma soprattutto il legal design può essere utilizzato dall’AI al fine di creare un output che possa rispettare le caratteristiche intrinseche del legal design?

Legal Design e limiti dimensionali degli atti giudiziari

Bisogna andare con ordine, ma la risposta è positiva: l’intelligenza artificiale può utilizzare l’approccio del legal design per produrre un output che sia user centered.

La vera domanda, tuttavia, che ci si deve porre, a parere di chi scrive, è relativa non tanto alla possibilità, o alle “capacità” dei sistemi di AI, di utilizzare il legal design, ma riguarda, piuttosto, la tipologia di risultato che viene prodotto.

Legal Design: una definizione

Il legal design, secondo la definizione fornita da Margaret Hagan è “l’applicazione dell’UX design al mondo legale, al fine di rendere i sistemi e i servizi legali più umano-centrici, fruibili e soddisfacenti” per l’utente.

Partendo da tale indicazione, gli elementi caratteristici di questo diverso approccio al mondo legale sono fondamentalmente tre, ossia:

  • Deve essere human-centered;
  • Deve essere universale, ossia deve essere compreso da tutti i soggetti ai quali è indirizzato;
  • Design thinking oriented, ovvero orientato al pensiero progettuale nel senso che è necessario strutturare in modo preciso e puntuale la modalità con la quale veicolare il messaggio giuridico.

È quindi fondamentale che venga semplificato il rapporto tra l’utente e il mondo giuridico (sia che si faccia riferimento a documenti o a norme giuridiche) in modo che la norma o il documento, attraverso questo approccio, risultino più intuitivi, chiari e comprensibili.

La programmazione: da dove parte tutto

Ciò che l’AI è in grado di realizzare, ossia la tipologia dell’output che può produrre e restituire a chi ha inserito l’input, dipende dalle modalità con le quali l’algoritmo è stato programmato e dalle potenzialità che lo stesso può avere.

Se quindi la domanda è relativa alla possibilità che sistemi di AI utilizzino e applichino l’approccio del legal design, la risposta non può che essere affermativa.

Ciò sul quale, al contrario, dovremmo interrogarci è la modalità con la quale questo approccio può essere applicato dall’AI.

Come sappiamo i sistemi di intelligenza artificiale sono algoritmi che vengono programmati in virtù di un codice informatico che può avere innumerevoli variabili, ma che, ovviamente, è legato alla modalità di programmazione del singolo programmatore.

In altre parole la correlazione tra algoritmo e programmatore è una sorta di vincolo indissolubile che riporta, nella stesura del codice, le caratteristiche proprie del programmatore che, quel codice, lo ha materialmente scritto.

In questo caso tra l’input e l’output, ossia il documento realizzato con il legal design, deve esserci un collegamento, l’algoritmo, che non sarà solo ed esclusivamente “codice”, ma dovrà avere caratteristiche tali da conoscere elementi giuridici ed elementi di design che, combinati insieme, possano produrre quello specifico output, il legal design, di cui si discute.

I bias nell’AI e il legal design

Ci sono e ci saranno sempre di più sistemi che, dato uno specifico input, saranno in grado di fornire documenti legali che rispecchino l’approccio del legal design, ma l’attenzione dovrà essere rivolta alla correttezza e all’accuratezza degli output forniti.

Certo, è possibile, che l’inesattezza dipenda da algoritmi contenenti errori, algoritmi imprecisi o riportanti i bias del proprio programmatore.

Quello che, però, dobbiamo considerare è che se, come visto, la macchina può sbagliare, è altrettanto possibile che la macchina elabori un dato errato o impreciso perché inserito, questa volta dal fruitore del sistema di intelligenza artificiale, in maniera non corretta o non precisa.

Ecco, quindi, che, anche laddove l’algoritmo fosse “perfetto” (utilizziamo questo termine non a caso), il risultato, ossia l’output, risulterebbe errato.

Esistono, già oggi, sistemi che vengono utilizzati da moltissimi utenti in maniera acritica solo perché velocizzano il processo o hanno un costo contenuto.

Ma cosa succede, in termini di conseguenze, a causa di questi errori?

La questione della responsabilità nell’uso dell’AI

Possiamo legittimamente aspettarci che un sistema automatizzato fornisca, per esempio, documenti creati con l’utilizzo del legal design, già “pronti all’uso” e che siano, pertanto, immediatamente fruibili? Possiamo ritenere che, stante la possibilità per un algoritmo di applicare il legal design, il risultato fornito sia esente da vizi ed errori?

La risposta, in questo caso, è negativa.

Senza addentrarci in quelle che sono le pieghe di un tema piuttosto complesso e delicato, basti, in questo contesto, considerare che gli eventuali errori, le possibili imprecisioni, le criticità che dovessero emergere da questo impiego dell’AI riverbererebbero le proprie conseguenze legali sul soggetto fruitore del sistema di intelligenza artificiale.

L’importanza del controllo umano nei processi automatizzati

La supervisione e il controllo umano, tuttavia, non dovrebbe essere limitato o focalizzato unicamente nella fase di verifica del risultato ottenuto, ma, del pari, si dovrebbe estendere anche a quella di analisi dei dati inseriti nel sistema.

Può sembrare così strano?

Basta fare un’analisi della documentazione relativa alla protezione dei dati che si può trovare online: un controllo preventivo eliminerebbe alla radice molte violazioni del GDPR.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4