La questione dell’uso dei LLM anche in ambito giuridico applicato è ormai all’ordine del giorno in Italia e non solo[1].
Di conseguenza, la domanda centrale non è se i LLM possano avere applicazione in ambito giuridico, ma se queste applicazioni siano un mero sviluppo di quanto già avvenuto con tecnologie già esistenti, uno sviluppo in continuità che non cambia le questioni di fondo che il rapporto tra IA e diritto pone oppure se cambiamenti vi siano e se essi siano significativi, e in quale senso.
Il fuoco è non tanto quello dei prodotti che i LLM possono fornire, nuovi o simili a quelli degli umani o di sistemi tecnici precedenti, ma se e come cambi il modo di esercitare le professioni legali o per i cittadini di rapportarsi a documenti ed esperienze giuridiche.
Proviamo allora a delineare le caratteristiche di fondo delle tecniche di Legal analytics e degli LLM. E ad individuare dove si collochi la discontinuità, in cosa consista e quali implicazioni abbia. Gli elementi di discontinuità consentono una riflessione conclusiva sul possibile ruolo dell’umano e, soprattutto, del giurista.
Prima di addentrarci nella esplorazione, schematica e provvisoria, di questi cambiamenti occorre tuttavia richiamare l’ampiezza, la pluralità e la varietà delle manifestazioni del diritto, e quindi la necessità di precisare ogni volta a quale di queste si stia facendo riferimento.
Le varie forme dell’esperienza giuridica
Una prima schematica elencazione delle varie forme che l’esperienza giuridica ha preso è stata così da noi sintetizzata in precedenti lavori[2].
Il diritto espresso in linguaggi naturali continua a essere la forma di produzione di materiali giuridici (legislazione, giurisprudenza, decisioni amministrative, contratti, ecc.) ancora oggi del tutto prevalente e include:
a) Decisioni basate su regole, cioè decisioni prese in settori del diritto e paesi nei quali può applicarsi il concetto rigoroso di Frederick Schauer[3] ed espresse in un linguaggio naturale,
b) tutte le altre decisioni legali che non rispondono allo standard di Schauer, sono espresse in uno specifico linguaggio naturale e si collocano in ambienti multilingue, tra cui
i. la realtà mondiale dei diversi diritti nazionali;
ii. Materiali giuridici tradotti da un linguaggio naturale in un altro, nel dialogo tra stati o all’interno di organismi e istituzioni internazionali;
iii. I diritti prodotti in diversi originali scritti in diverse lingue all’interno di organismi e istituzioni internazionali (per es. UE, agenzie delle Nazioni Unite e altro)[4].
Vi è, poi, il diritto computabile nel suo senso più ampio. È l’area in espansione dei contratti computazionali (come categoria più ampia, che comprende anche gli smart contract): qui, il codice è il diritto o, per dirla in modo più preciso, il diritto è espresso direttamente in codice (senza alcun passaggio di emulazione da un sistema a un altro). Ciò non esclude che vi siano anche fenomeni di emulazione, dove atti legislativi o contratti, originariamente espressi in un linguaggio naturale, sono emulati in linguaggi formali e diventano così computabili. Ciò accade per diversi aspetti della legislazione (anche nel diritto penale sostanziale), che possano essere espressi secondo una logica if/then.
Vi è poi tutto quel materiale che è parte del patrimonio informativo giuridico ma che è espresso in formati differenti: immagini, video, audio. Ovviamente non si tratta di produzione giuridica in senso stretto, ma entra all’interno del sistema ed è fonte di conoscenza giuridica (si pensi a un video ammesso come prova in un processo, o alle immagini/disegni in una controversia in materia di marchi e brevetti).
Sistemi basati sulla conoscenza, sistemi di apprendimento automatico e Large Language Models (LLM)
In origine furono i sistemi basati sulla conoscenza. Le prime applicazione di LA in ambito giuridico ci sembrano ormai esperienza storica e non attuale, ma sono il nostro punto di partenza. Sono sistemi basati sulla conoscenza quei sistemi che, sulla base della rappresentazione formale del linguaggio e delle inferenze logiche, possono in automatico concludere un task in diversi ambiti della conoscenza, fra cui anche quello giuridico. Il classico caso è quello dell’algoritmo di assegnazioni delle sedi al corpo decente, che sulla base di un set di regole predefinite e dei dati in input (punteggi in graduatoria e preferenze a disposizione) genera in output le associazioni nome/collocazione. Nello stesso modo sono costruiti i sistemi che, sulla base di parametri prestabiliti e senza margine di discrezionalità, decidono l’accesso a un determinato beneficio, come nel caso dei sistemi automatici per l’assegnazione degli alloggi di edilizia residenziale pubblica.
Il limite principale di questi sistemi sta nel fatto che essi contemplano soltanto la conoscenza ex ante acquisita e organizzata dall’umano, senza alcuna forma di apprendimento automatico. Essi sono, quindi, prevedibili, controllabili, ma limitati, e utilizzabili solo in casi d’uso in cui tutte le variabili possono essere contemplate in partenza. Questo loro limite è, in parte, anche il loro punto di forza. La predeterminazione a monte di tutti gli elementi consente un efficace controllo, e il loro iter è reversibile. Se facciamo riferimento alla classificazione delle manifestazioni del diritto di cui al par. 1, questo tipo di sistema mostra tutta la sua efficacia negli ambiti e nei limiti in cui il diritto possa essere computabile, cosa che li rende molto limitati nell’esperienza.
La vera evoluzione sono i sistemi di apprendimento automatico: la conoscenza sulla base del quale il sistema elabora i dati in input non è più soltanto quella fornita in origine in fase di elaborazione del modello, ma dall’evoluzione nell’apprendimento che il sistema stesso svolge. Questi sono anche i primi a consentire l’utilizzo di grandi masse di dati organizzati in modo da avere la caratteristica funzionale di poter essere usati per finalità di “analitica” (analytics), cioè per scoprire correlazioni e fare predizioni: “sempre più spesso si utilizzano tecnologie di IA basate sull’apprendimento automatico, che consentono di estrarre modelli predittivi da grandi insiemi di dati”.[5]
I sistemi di apprendimento automatico possono essere molto diversi e porre problemi differenti a seconda della tecnologia con la quale sono realizzati e del tipo di training che il modello riceve: vi è, in primo luogo, l’apprendimento supervisionato.
In questo caso il modello viene fatto allenare su un dataset in input che contiene già informazioni che consentono al sistema di estrarre una regola, presente nella base dei dati etichettati in partenza da umani esperti del settore, e di applicare quella regola ai nuovi dati fuori dal sistema di allenamento. Applicare un modello supervisionato ai dati giuridici (norme e decisioni di corti) significa avere metadati associati al testo espresso in linguaggio naturale. Se questo non è difficile da immaginare per alcuni contesti, come ad esempio nel caso del task di traduzione (pensiamo ad esempio a quanti dati abbiamo a disposizione grazie al plurilinguismo dell’Unione Europea, che ci consegna svariate traduzioni dello stesso atto) lo stesso non può dirsi per altri task. In altri casi, infatti, tutte le informazioni di allenamento dovranno essere in partenza fornite dall’uomo attraverso l’etichettatura, un lavoro che va a costituire il collo di bottiglia di cui parla efficacemente Kevin Ashley.[6]
Nell’apprendimento non supervisionato, invece, le informazioni non vengono fornite ex ante, insieme al dataset di training, ed è il sistema stesso a elaborare un criterio per valutare l’esistenza di connessioni rilevanti, dove però il parametro di cosa è connessione rilevante non deriva direttamente da elementi o da indicazioni forniti dall’umano.
La differenza essenziale fra i due sistemi è che nel primo caso il collegamento fra i dati in input e quelli in output segue una regola determinata a monte da chi elabora e addestra il modello, mentre nel secondo caso ciò che collega dati in input e in output non è predeterminato in sede di elaborazione e allenamento del modello. Se si vuole far riferimento al concetto di generalizzazione, i sistemi supervisionati possono essere in grado di generalizzare sulla base dei dati di training forniti e applicare la regola a casi nuovi, quindi a un nuovo dataset in input.
Tuttavia, parlare di sistemi di apprendimento automatico e di modelli di training nulla ci dice sulle diverse tecnologie con cui questi possono essere realizzati. I sistemi sono diversi e alcuni di questi vanno nella direzione dei LLM. Vi sono, ad esempio, gli alberi di decisioni, che consentono di ricostruire tutti i passaggi che portano a un certo dato di output. In questo senso sono più vicini ai sistemi basati sulla conoscenza e pongono problemi affini, quali la necessità di verificare la correttezza dei dati in input e rendono possibile la generalizzazione della regola.
Diverso è il caso delle reti neurali, che sono sistemi di apprendimento automatico basati su correlazioni probabilistiche, associazioni fra input e output (chiamati nodi in input e nodi in output). Ogni primo risultato in output svolge il ruolo di input per il nodo successivo, che genera a sua volta un sistema di pesi (maggiore è il peso più corretto è il risultato). Nel caso delle parole, ad esempio, vi è una rappresentazione vettoriale dei dati espressi in linguaggio naturale (bag of word) che restituisce come output un dato numerico.
Questo ci avvicina ai Large Language Model perché i modelli di linguaggio generativi si basano su reti neurali profonde (transformers). In questo senso è fondata l’affermazione che ChatGPT non è rivoluzionario da un punto di vista tecnologico[7].
Ma i LLM hanno in più la caratteristica di essere Large, dove large, sta a significare che i paramenti che consentono loro di identificare la probabilità e tradurla in un’espressione in linguaggio naturale sono nell’ordine dei miliardi: “sono quindi ‘large’ perché al loro interno sono presenti miliardi, e nei sistemi più recenti anche centinaia o migliaia di miliardi, di parametri. Per esempio, il noto GPT-3 (il sistema che alimenta ChatGPT e che adesso sta venendo sostituito con l’ancor più grande GPT-4) ha 175 miliardi di parametri, mentre MT-NLG di Nvidia e Microsoft arriva a 530 miliardi. Il più grande in assoluto è però WuDao 2.0 dell’Accademia di Pechino per l’intelligenza artificiale, dotato della strabiliante quantità di 1.750 miliardi di parametri”.
Legal Analytics (LA) e Large Language Models (LLM): dov’è la discontinuità
La discontinuità tra legal analytics e LLM si colloca a vari livelli.
In primo luogo vi è discontinuità nel passaggio dall’apprendimento supervisionato a quello non-supervisionato, perché in quello supervisionato la costituzione del dataset di training è frutto di coscienti (si suppone) scelte di un umano, la selezione degli elementi rilevanti che guideranno il training dell’algoritmo è opera di umani esperti di dominio (il collo di bottiglia di cui parla Ashley), la creazione dell’algoritmo di apprendimento è opera di umani anch’essi (ingegneri e informatici), la lettura dei risultati e lo sviluppo di un modello è ancora loro opera, fino all’algoritmo che viene infine lanciato nel mare aperto di dataset non più di training. Tutto questo processo è all’insegna dell’affinamento dell’esperienza nella fase di training e di un processo di generalizzazione che proietta quanto immaginato/progettato in fase di training (sulla base dell’esperienza umana di settore) nel più vasto mondo di oggetti nel quale si assume che l’algoritmo ritrovi elementi con caratteristiche e rapporti simili.
Insomma, tutto il lavoro impiegato per la revisione e l’uso delle macchine possono essere considerati ancora uno sviluppo di quell’elemento tecnologico tipicamente umano che, secondo l’insegnamento di Carlo Sini, è la mano, il primo strumento trasformativo del mondo (capace di manipolazione, appunto)[8]. In questo caso la tecnologia serve a moltiplicare, a sviluppare le potenzialità di generalizzazione, a fare qualcosa che, in linea di principio, l’attività solo umana (senza il supporto delle macchine) avrebbe potuto ancora compiere, sia pure con lentezza. Cambia la velocità e l’ampiezza della generalizzazione ma non vi è interruzione del legame originario con l’attività umana. Nell’apprendimento non-supervisionato, invece, questo legame sembra interrompersi.
La discontinuità può dipendere poi dalla tecnologia utilizzata: mentre alcuni parametri, come quelli relativi all’efficienza e all’accuratezza (valutata a posteriori) sono molto aumentati con l’introduzione delle reti neurali, altri parametri devono ora essere messi in discussione. Ad esempio la spiegabilità delle decisioni (o explainability, com’è più solito sentirla chiamare) intesa come possibilità di spiegare il processo esatto che ha portato ad un determinato risultato, che è possibile in un sistema basato sulla conoscenza (si pensi di nuovo al set di regole che portano all’assegnazione di una sede o di un beneficio economico) deve essere radicalmente ripensata in sistemi di deep learing.
Questo ovviamente non significa rinunciare del tutto al superamento dell’opacità, ma immaginare forme di spiegabilità più estrinseche che intrinseche, come ad esempio dei sistemi di controllo in grado di raffrontare i risultati.[9]
Vi è poi il tema dei dati, che, come sempre, sono la base di tutto. Quelli sui quali operano i chatbot sono costituiti da insiemi frutto di scraping sui siti internet e, almeno nella versione Chat GPT di Open AI, senza alcuna chiarezza e conoscibilità dei contorni, e possibilità di risalire alla fonte dell’informazione elaborata, anche perché sono spesso raccolti automaticamente[10]. Questo perché, per i sistemi di apprendimento automatico, per i sistemi di deep learning e a maggior ragione per i LLM, una rilevanza essenziale è rivestita dalla quantità dei dati più che dalla loro qualità e modalità di organizzazione. Questa oscurità circa i dati sui quali gli LLM lavorano dà ai risultati delle interrogazioni una connotazione oracolare, dotata di grande instabilità e variabilità a seconda del modo di formulazione dell’interrogazione (prompt). Anche da questo punto di vista l’evoluzione dei sistemi di machine learning ha comportato un cambiamento significativo nel nostro modo di considerare i dati: nei sistemi che si basano su un apprendimento supervisionato la loro corretta classificazione (o etichettatura) svolge un ruolo essenziale, mentre in questo caso prevale indiscutibilmente la quantità, anche nel caso in cui siano molto frammentati.
Da ciò consegue che i risultati di LLM devono essere considerati come elaborazioni linguistiche simil-umane, ma non fonti di dati e informazioni, tanto che le risposte su dati e riferimenti documentali o bibliografici hanno spesso carattere allucinatorio (il sistema inventa pur di dare una risposta, anche se non la ha). Naturalmente ciò non esclude che possa accadere (e in alcuni esperimenti fatti di sommarizzazione in ambito giuridico è accaduto) che quelle elaborazioni linguistiche simil-umane siano risultate “ben confezionate” e talora abbiano presentato uno stile di scrittura qualitativamente migliore del testo umano di provenienza.
La discontinuità e il ruolo dell’umano (e del giurista?)
Questo aspetto ha varie importanti implicazioni. Esso rende particolarmente delicato il problema dei criteri sulla base dei quali valutare la qualità dei testi prodotti. È una questione che si pone in tutti i campi del sapere[11] e che in quello giuridico assume contorni particolari, visto che, secondo la dottrina prevalente, di una norma giuridica non si può dire che sia vera o falsa, ma solo che esista o meno.
Dell’art. 2043 del codice civile, che stabilisce che “Qualunque fatto doloso o colposo, che cagiona ad altri un danno ingiusto, obbliga colui che ha commesso il fatto a risarcire il danno”, non si può dire che sia vero o falso, ma al massimo che sia vigente o meno. E lo stesso vale per la norma del codice penale che punisce chi cagiona la morte di una persona.
La questione che si pone è allora la seguente: se le elaborazioni linguistiche simil-umane degli LLM hanno un’origine non conoscibile, non solo in termini di verità del diritto enunciato ma neanche nei termini di evento storico originario (l’esistenza di una legge approvata e vigente o un precedente giudiziario), su cosa e su quale criterio si potrà basare la valutazione di bontà o utilizzabilità di un sommario prodotto da un sistema come ChatGPT?
Si potrà e dovrà ricorrere a criteri empirici sussidiari, come quello della valutazione/approvazione da parte della comunità scientifica di riferimento (per es. esperti di diritto industriale per la giurisprudenza di diritto industriale). Ma anche in questo caso non è pensabile, perché economicamente inutile, che tutte i sommari (massime) create artificialmente siano valutate da esperti, perché altrimenti non si capirebbe qual è il vantaggio di avere un sistema automatico. Allora si dovrà dire che il consenso degli esperti dovrà riguardare un campione di prova che valida un sistema, che poi viene lasciato operare da solo.
Un ulteriore criterio può essere quello di non lasciare mai a un prodotto simil-umano l’ultima parola in una decisione o in una ricerca. Per esempio, se un avvocato usa per redigere un proprio atto introduttivo di un giudizio un sistema basato su LLM (che lo dichiari o meno), sottoporrà quel suo elaborato all’esame critico del legale avversario, che potrà cogliere e sfatare (dal punto di vista degli interessi del suo assistito) tutte le incongruenze o allucinazioni del testo del suo avversario. E se anche il secondo avvocato si dovesse avvalere di sistemi del genere, ci sarà la replica del suo avversario e ci sarà poi il filtro e la valutazione del giudice. Insomma, la verità/non verità del diritto e l’avvalersi i legali di strumenti con abilità simulatorie (come i prodotti simil-umani prodotti da LLM) possono avere un loro inveramento nella dinamica del contradittorio, che è l’ambiente tradizionalmente deputato a produrre risultati valutabili in termini di “verità processuale”.
Come che si risolvano questi problemi è evidente che quello che accade con l’uso degli LLM esclude che sia possibile applicare il modello della generalizzazione dell’attività umana di cui si è detto sopra. È evidente che anche in questo caso si tratta di prodotti umani, i transformer non arrivano dalla luna e i dati reperibili su Internet sono il risultato di tecnologie prodotte da uomini, ma non può parlarsi di generalizzazione di un elaborato concettuale umano.
Se a questo si aggiunge, nel caso specifico degli LLM, la variabilità delle risposte e il loro dipendere dalla formulazione del prompt si perde anche un qualche ancoraggio a dati di realtà (di cui si è avvalso il sistema), inteso nel senso di dati realmente esistenti e/o leggibili in un modo particolare. La questione può avere implicazioni filosofiche importanti (qui non affrontabili) che sembrano portare a una prospettiva cognitivista e a rendere difficile ogni forma di realismo, sia pure leggero, come quello di John Searle (che distingue l’esistenza inconfutabile delle montagne e l’espressione linguistica delle montagne, che può variare anche in modo significativo).
Si tratta di un’evoluzione che si è verificata anche in altri campi, dai programmi per il gioco degli scacchi alla ricerca in campo biologico. Mentre i programmi per gli scacchi del passato “erano basati su mosse concepite, eseguite e caricate da giocatori umani: in altre parole, si fondavano sull’esperienza, la conoscenza e la strategia di esseri umani”, nel caso del più recente di AlphaZero il programma “non aveva una strategia nel senso umano […]; seguiva, invece, una logica propria, plasmata dalla capacità di riconoscere modelli di mosse entro una vasta serie di possibilità che la mente umana non è in grado di assimilare o utilizzare.” Insomma, “mentre il vantaggio dei primi programmi sugli avversari umani stava non nell’originalità, ma in una superiore potenza di elaborazione, che permetteva di valutare un numero notevolmente maggiore di opzioni entro un lasso di tempo determinato”, ora il sistema ha come un approccio autonomo alla realtà. È stato notato che persino dopo una scoperta in campo biologico “i ricercatori non sono stati in grado di spiegare con precisione perché funzionavano. L’intelligenza artificiale non soltanto ha elaborato i dati in modo più rapido di quanto sono in grado di fare gli esseri umani, ma ha anche individuato aspetti della realtà che gli esseri umani non hanno mai rilevato, o forse non sono in grado di rilevare” [12].
I problemi che il diritto deve affrontare
Senza avere la pretesa di discutere qui in poche righe l’affermazione secondo la quale “l’intelligenza artificiale espanderà i confini di ciò che sappiamo della realtà” (p.172), o che l’IA consentirà il disvelamento di aspetti della realtà precedentemente impercettibili ma potenzialmente rilevanti certo è che, anche solo sulla base di quello che sappiamo oggi, ve ne è abbastanza per porre alcuni seri problemi al diritto.
Il rapporto con la semantica è di particolare delicatezza. Viene fatto rilevare che “i modelli di linguaggio generativi sono – a oggi – delle rappresentazioni eccellenti della dissociazione tra linguaggio formale e pensiero”[13]. Luciano Floridi e Massimo Chiriatti rincarano la dose notando che “stiamo sempre più separando la capacità di risolvere efficacemente un problema – per quanto riguarda l’obiettivo finale – da qualsiasi requisito di intelligenza per farlo” (traduzione nostra)[14].
Per il diritto questo solleva non solo il problema della spiegabilità, ma quello ben più radicale e tipicamente giuridico della legittimità: “Principi intrinseci alle nostre società consentono risoluzioni pacifiche delle controversie. In questo processo, ordine e legittimità sono collegati: l’ordine senza la legittimità equivale semplicemente alla forza. Assicurare la supervisione umana su elementi fondamentali del governo, nonché una partecipazione attiva a essi, sarà fondamentale per sostenere la legittimità. Nell’amministrazione della giustizia, per esempio, fornire spiegazioni e un ragionamento morale sono elementi cruciali della legittimità”[15]. Queste affermazioni, non certo originali, sono interessanti perché formulate da tre autori che non sono certo sospettabili di ostilità verso la tecnologia (due dei tre autori provengono uno da Google e l’alto dal MIT).
A fronte di questa prospettiva saranno sufficienti gli accorgimenti sopra delineati, come il ricorso alle regole sociali (come il contraddittorio nel processo) e il non lasciare mai a una decisione simil-umana l’ultima parola in un caso o in una decisione pubblica? Oppure limitare l’utilizzo di sistemi LLM nell’organizzare le fonti di cognizione del diritto, solo nello studio dei casi?
Oppure potremmo considerare l’evoluzione tracciata nel par. 2 non come diacronica, ma sincronica. I sistemi basati sulla conoscenza possono svolgere un ruolo complementare e fare da trait d’union fra i sistemi di apprendimento automatico e l’uomo, tradurre in implicazioni logiche risultati umanamente decifrabili. Le capacità di calcolo di un sistema basato sulla conoscenza potrebbero essere utilizzate per classificare o analizzare gli output dei sistemi di deep learning, o potrebbero rielaborare le informazioni da questi prodotti, in questo caso però alla luce di parametri intellegibili dall’umano. Si pensi all’ipotesi di provare a ricondurre, per il tramite di un sistema basato sulla conoscenza, dei frammenti di testo in linguaggio naturale prodotti da un LLM a un testo datogli in input.
Conclusioni
Insomma, la via sembra essere quella della complementarietà del lavoro delle macchine e di quello degli umani, nella prospettiva di una coevoluzione di uomini e macchine[16]. Ma non è una collaborazione di pari grado e, in ogni caso, questa collaborazione richiederà agli esseri umani di adattarsi a un mondo in cui la nostra ragione non rappresenta il solo – e forse nemmeno il più istruttivo – modo di conoscere la realtà o di muoversi al suo interno[17].
Note
[1] Per un esperimento in corso in Italia nell’ambito del Progetto Prodigit sulla giustizia tributaria si veda Dal Pont, T., Galli, F., Loreggia, A., Pisano, G., Rovatti, R., & Sartor, G. (2023). Legal Summarisation through LLMs: The PRODIGIT Project. arXiv preprint arXiv:2308.04416. Per il mondo dell’avvocatura europea si vedano le linee guida Commissione Nuove Tecnologie della Associazione degli Ordini Europei (Fédération des Barreaux d’Europe), Gli avvocati europei nell’era di ChatGPT, giugno 2023, https://www.fbe.org/nt-commission-guidelines-on-generative-ai/ . Per gli USA si veda Peter Henderson, Law, Policy, & AI Update: Does Section 230 Cover Generative AI? Mar 23, 2023, https://hai.stanford.edu/news/law-policy-ai-update-does-section-230-cover-generative-ai . E, in generale, David Freeman Engstrom, Lucy Ricca, Graham Ambrose, and Maddie Walsh, Legal Innovation After Reform: evidence from regulatory change, Stanford Law School, 2022, https://law.stanford.edu/wp-content/uploads/2022/09/SLS-CLP-Regulatory-Reform-REPORTExecSum-9.26.pdf
[2] Traiamo questa classificazione da A.Santosuosso, Intelligenza artificiale e diritto, Mondadori Università, 2000 (il capitolo XI) e da A. Santosuosso – G. Pinotti, Bottleneck or Crossroad? Problems of Legal Sources Annotation and Some Theoretical Thoughts, in: Stats, 2020, 3(3), pp. 376-395.
[3] F. Schauer, Playing by the Rules: A Philosophical Examination of Rule- Based Decision-Making in Law and in Life, Clarendon Press, Oxford 1991. Secondo Schauer «il processo decisionale governato da regole è un sottoinsieme del processo decisionale legale, piuttosto che essere congruente con esso». Quindi un giudice prende decisioni sicuramente legali, ma non basate su regole, quando decide secondo il «miglior interesse» del bambino o del paziente, o secondo il sistema di equità o determina l’entità di una condanna penale a causa. Ciò dipende dalla natura e dalla qualità intrinseca della norma che è stata applicata, che non è chiaramente definita e che lascia ampi margini di ulteriore definizione a opera proprio del giudice.
[4] Per esempio, nell’UE, secondo il principio di uguaglianza, le versioni linguistiche non sono considerate come traduzioni: si veda E. Paunio, Legal certainty in the context of Multilingualism, in: M. Fenwick – M. Siems – S. Wrbka, S. (eds). The Shifting Meaning of Legal Certainty, cit., pp. 55-69.
[5] G. Sartor, L’Intelligenza Artificiale e il diritto, Giappichelli, 2022, p. 12.
[6] K. D. Ashley, Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age, Cambridge University Press, Cambridge, 2017.
[7] “ChatGPT non è rivoluzionario da un punto di vista tecnologico. ChatGPT è stato sviluppato usando metodi che sono noti e sono stati già usati”: Tommaso Caselli, ChatGPT: le macchine parlano come noi? (Parte I), 5 febbraio 2023, https://www.linguisticamente.org/chatgpt-le-macchine-parlano-come-noi-parte-i/
[8] Carlo Sini, L’ uomo, la macchina, l’automa. Lavoro e conoscenza tra futuro prossimo e passato remoto, Bollati Boringhieri, 2009; si veda anche la bella lezione online https://library.weschool.com/lezione/carlo-sini-levoluzione-del-corpo-umano-a-partire-dalluso-delle-mani-2685.html
[9] Ad esempio quello che suggerisce Sartor con riferimento alla spiegabilità “contrastiva”, p. 60.
[10] Si veda sul punto l’articolo del Sole 24 Ore Google, doppia mossa in Giappone e in India, del 1 settembre 2023.
[11] Si vedano ad esempio Generative AI Benchmark Study Finds US Behind in AI Spending di C. Adrien e Generative and reproducible benchmarks for comprehensive evaluation of machine learning classifiers di P. Orzechowski e J. Moore.
[12] Kissinger, Henry A.; Schmidt, Eric; Huttenlocher, Daniel. L’era dell’intelligenza artificiale: Il futuro dell’identità umana (Italian Edition) (p.15). MONDADORI. Edizione del Kindle
[13] [da https://www.linguisticamente.org/chatgpt-le-macchine-parlano-come-noi-parte-i/]
[14] “we are increasingly decoupling the ability to solve a problem effectively—as regards the final goal—from any need to be intelligent to do so”L. Floridi e M. Chiriatti, «GPT-3: Its Nature, Scope, Limits, and Consequences», in Minds and Machines (2020).
[15] Kissinger, Henry A.; Schmidt, Eric; Huttenlocher, Daniel. L’era dell’intelligenza artificiale: Il futuro dell’identità umana (Italian Edition) (p.192). Mondadori, Edizione del Kindle.
[16] A. Santosuosso, About coevolution of humans and intelligent machines: preliminary notes, in Biolaw Journal, S1 (Special Issue n. 1) 2021. A. Santosuosso, The human rights of nonhuman artificial entities: an oxymoron? In Yearbook of Science and Ethics/Jahrbuch für Wissenschaft und Ethik, De Gruyter Publisher, 2015.
[17] Kissinger, Henry A.; Schmidt, Eric; Huttenlocher, Daniel. L’era dell’intelligenza artificiale: Il futuro dell’identità umana (Italian Edition) (p.175).