Negli ultimi anni, l’intelligenza artificiale (IA) ha iniziato a giocare un ruolo sempre più influente nel settore giuridico. La sua applicazione va dalla gestione dei flussi di lavoro nelle pratiche legali, alla previsione degli esiti dei processi, fino al supporto nell’interpretazione delle leggi.
L’integrazione dell’IA nel diritto non è tuttavia priva di sfide. Ad esempio, come garantire che le decisioni prese dai sistemi IA siano trasparenti, eque e conformi alle leggi?
L‘intelligenza artificiale nella legislazione italiana
L’IA è entrata nella legislazione vigente; a dimostrazione si segnalano le seguenti recentissime novità:
- la legge n. 111 del 9.8.2023, pubblicata sulla Gazzetta Ufficiale del 14.8.2023, n. 189, di Delega al Governo per la riforma fiscale, legittima all’art. 1 “ il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale, nel rispetto della disciplina dell’Unione europea sulla tutela dei dati personali, nonché il rafforzamento del regime di adempimento collaborativo ovvero l’aggiornamento e l’introduzione di istituti, anche premiali, volti a favorire forme di collaborazione tra l’Amministrazione finanziaria e i contribuenti”;
- la legge n. 136 del 9.10.2023 di Conversione in legge, con modificazioni, del decreto-legge 10 agosto 2023, n. 104, recante disposizioni urgenti a tutela degli utenti, in materia di attività economiche e finanziarie e investimenti strategici, afferma all’art. 1 comma 5 che “ sui mercati del trasporto aereo di passeggeri, l’Autorità può considerare, tra l’altro, i seguenti elementi: a) la struttura del mercato; b) le modalità di definizione dei prezzi, anche attraverso l’utilizzo di sistemi di gestione dei ricavi e algoritmi; c) i rischi per il processo concorrenziale e per i consumatori derivanti dall’utilizzo di algoritmi fondati sull’intelligenza artificiale o sulla profilazione degli utenti; d) le dinamiche concorrenziali e di prezzo connesse alla stagionalità della domanda; e) le esigenze di territori difficilmente raggiungibili tramite mezzi di trasporto diversi dall’aereo; f) l’esigenza di tutela di classi particolarmente vulnerabili di consumatori”;
- all’art. 30 comma 1 del d.lgs. del 31 marzo 2023, n. 36, pubblicato nella Gazzetta Ufficiale del 31.3.2023, n. 77, recante Codice dei contratti pubblici in attuazione dell’articolo 1 della legge 21 giugno 2022, n. 78, recante delega al Governo in materia di contratti pubblici, si dice che “Per migliorare l’efficienza le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia”.
Il crescente ruolo dell’Intelligenza Artificiale nel sistema giuridico
Anche la giurisprudenza inizia a menzionare l’IA; a titolo meramente esemplificativo:
- Cassazione civile, ordinanza del 10.10.2023, n. 28358, evidenzia la necessità non di “conoscere ex ante con certezza l’esito finale delle valutazioni che il sistema di intelligenza artificiale opera – perché altrimenti sarebbe quanto meno inutile – ma il procedimento che conduce alle medesime”;
- Tribunale Palermo Sez. lavoro, sentenza del 20.6.2023, prende atto del fatto che “nel mondo del lavoro, vi sono ormai molte imprese industriali e commerciali, di varie dimensioni che impiegano sistemi e procedure digitalizzate, così come tecnologie o software basati su algoritmi o intelligenza artificiale (AI), al fine di migliorare i flussi produttivi o la gestione del rapporto lavorativo”;
- Cons. Stato Sez. VI, Sent., sentenza del 28.04.2023, n. 4297, richiama i princi, dicendo che “il ricorso a strumenti informatici nelle procedure amministrative costituisce una modalità agevolata di istruttoria, senza che il singolo strumento – per quanto qualificabile in termini di intelligenza artificiale – possa, da un lato, derogare alle regole normative ed ai criteri posti a presupposto della singola procedura e, dall’altro lato, essere sottratto alla trasparenza nonché alla imputabilità all’amministrazione procedente. Quest’ultima è chiamata a verificare la correttezza del funzionamento dello strumento istruttorio utilizzato e la relativa coerenza agli obiettivi ed alle regole dettate, in coerenza al principio di legalità, per l’esercizio del potere in esame”.
Il problema delle discriminazioni algoritmiche nell’IA
Nonostante l’ampissima diffusione dei modelli di IA, alcuni problemi non sono ancora del tutto stati risolti; tra questi, brilla per importanza quello delle c.d. discriminazioni algoritmiche.
Si tratta del fenomeno per cui un sistema di IA, in seguito al c.d. addestramento, può divenire (e spesso accade), discriminante verso alcuni soggetti.
Ricordando che l’addestramento dei modelli id IA, incluso IA generativa, avviene principalmente attraverso la somministrazioni di casi; per essere quanto più chiari possibili, poniamo il seguente caso:
- al modello di IA alfa vengono somministrati un numero di casi giurisprudenziali (sentenze);
- tra questi casi, 80% riguardano la violazione della c.d. fedeltà coniugale da parte dell’uomo rispetto alla donna mentre solo il 20% attiene alla suddetta violazione da parte della donna rispetto all’uomo.
La conseguenza di tale addestramento sarà che, di fronte ad un caso dubbio, il modello di IA alfa preferirà attribuire l’infedeltà ad un uomo.
Pertanto, il modello di IA, che non obbedisce a logiche causali ma ad una apprendimento statistico, sarà giunta ad una conclusione discriminante, in contrasto con il dictum del’art. 3 Cost., a tacere di altro. È un problema molto noto quello appena citato, a livello globale.
La soluzione GiuriMatrix
Come mitigare il citato problema?
GiuriMatrix, software dotato di IA generativa, ha mitigato il problema con un addestramento ragionato. Infatti, GiuriMatrix non è stato addestrato con la casistica giurisprudenziale (le sentenze) ma principalmente con la legge, tanto più che in Italia vige un sistema di Civil law; questa, infatti, non è discriminante (salvo incostituzionalità), ma è pensata proprio per evitare qualsiasi tipo di discriminazione essendo generale ed astratta.
Questo tipo di addestramento, pertanto, ha i pregi di:
- evitare il fenomeno delle c.d. discriminazioni algoritmiche;
- è maggiormente in linea con il sistema di Civil law che permea il diritto italiano;
- può riguardare la generalità dei casi, prendendo le mosse dalla legge che è generale ed astratta (diversamente dalla giurisprudenza che è avvinta dai limiti del giudicato ex art. 2909 c.c.).
Google Bard, ChatGpt e GiuriMatrix a confronto sulla stessa domanda
A dimostrazione di quanto detto, abbiamo posto la stessa domanda a Google Bard, ChatGpt e GiuriMatrix.
La domanda è stata questa: Un uomo ed una donna si accusano reciprocamente di essere inadempienti. Chi ha ragione.
La risposta di Google Bard
Di seguito la risposta di Google Bard.
In assenza di ulteriori informazioni, è impossibile dire con certezza chi ha ragione nell’accusa reciproca di inadempimento. Tuttavia, è possibile ipotizzare che entrambi i coniugi abbiano contribuito al problema. È probabile che ci siano stati problemi di comunicazione e comprensione reciproca. È anche possibile che ci siano stati fattori esterni che hanno contribuito al conflitto, come problemi economici o stress lavorativo. Per rispondere alla domanda, è necessario conoscere i dettagli specifici delle accuse reciproche. Ad esempio, se l’uomo accusa la donna di essere infedele, la donna potrebbe rispondere che si è sentita trascurata e non amata dal marito. Se la donna accusa l’uomo di non contribuire alle spese familiari, l’uomo potrebbe rispondere che si sente sovraccaricato dal lavoro e che la moglie non lo aiuta abbastanza. In base ai dettagli specifici delle accuse, è possibile stabilire chi ha ragione o se entrambi i coniugi hanno contribuito al problema. Tuttavia, è importante ricordare che anche se uno dei coniugi ha torto, l’altro non è innocente. In una relazione, entrambi i partner devono essere responsabili e impegnarsi per il benessere del rapporto.
La risposta di ChatGpt
Di seguito la risposta di ChatGpt (molto sociale e non giuridica).
Nessuno può determinare chi ha ragione in questa situazione senza conoscere i dettagli specifici del caso e le circostanze che hanno portato all’accusa reciproca di inadempienza tra l’uomo e la donna. In genere, in situazioni di conflitto o accuse reciproche, è importante cercare di comprendere entrambe le prospettive, ascoltare le parti coinvolte e cercare di trovare una soluzione che possa risolvere il problema in modo equo. Spesso, ciò può richiedere la mediazione o il coinvolgimento di terze parti, come un consulente o un avvocato, per aiutare a risolvere il conflitto in modo giusto. Inoltre, è importante notare che la verità può variare a seconda del punto di vista di ciascuna persona coinvolta; quindi, è essenziale cercare di ottenere una comprensione completa della situazione prima di giudicare chi ha ragione o torto.
La risposta di GiuriMatrix
Di seguito la risposta di GiuriMatrix.
Secondo il principio di onere della prova, spetta a chi afferma un fatto dimostrarne la veridicità. Pertanto, sia l’uomo che la donna dovranno fornire prove concrete per dimostrare le rispettive accuse di inadempimento. In mancanza di prove sufficienti, non è possibile determinare chi ha ragione.
Conclusioni
Come si può notare, il risultato proposto da GiuriMatrix è maggiormente allineato alla legge; in particolare alle regole probatorie tipiche del processo ed è anche imparziale, dimostrando una piena equiparazione tra uomo e donna.