Il futuro del mondo legale appare indissolubilmente legato all’incessante sviluppo di sistemi di Intelligenza Artificiale, i quali forniscono a giudici e avvocati strumenti sempre più sofisticati per il miglioramento delle prestazioni e l’ottimizzazione dei processi, trasformando radicalmente in tutto il mondo il modo in cui questi soggetti esercitano la propria professione.
L’avvento dei sistemi di IA nel settore legale comporta anche diversi rischi e problematiche, a cui stanno facendo seguito reazioni da parte di varie istituzioni, volte a porre dei limiti all’utilizzo indiscriminato di questi strumenti, e che rendono attuale il tema di un possibile intervento legislativo a regolamentare specificamente la materia.
Opportunità e rischi dell’IA nel settore legale
Come noto, un sistema di IA ha la capacità di analizzare ingenti quantità di dati e generare previsioni con una precisione e una velocità tali da superare ampiamente le capacità umane. Questo ha naturalmente un impatto enorme sulle professioni tradizionali, incluse quelle nel settore legale.
Ad esempio, i sistemi di IA possono svolgere un ruolo estremamente importante nella ricerca giuridica, consentendo agli avvocati di esplorare rapidamente vasti archivi di leggi e sentenze, velocizzando notevolmente il processo di individuazione e analisi dei precedenti che possono essere d’ausilio nella trattazione di casi analoghi.
Anche la redazione, revisione e negoziazione di contratti, o di altri documenti legali, è un’attività che può trarre un grande vantaggio dall’utilizzo di sistemi di IA, i quali sono spesso in grado di generare modelli di contratti e documenti personalizzati, che possono essere successivamente controllati dall’avvocato, con una grande riduzione di tempi e costi.
Non va inoltre dimenticato il dibattito sull’utilizzo dei c.d. software di “giustizia predittiva”, che, sfruttando l’elaborazione di un vastissimo numero di precedenti giurisprudenziali, sono finalizzati ad offrire ai propri utenti (giudici, avvocati, ma anche privati) uno strumento utile per prevedere il possibile esito di una controversia.
L’utilizzo dei sistemi di IA nel settore legale porta con sé anche diverse problematiche, che sono state da più parti sottolineate. Anzitutto, gli strumenti di IA generativa (ad esempio, ChatGPT) potrebbero generare “allucinazioni” o riportare dati inesistenti, con conseguente possibile responsabilità dell’avvocato che si sia servito di tali strumenti nei confronti del proprio cliente.
È stato inoltre da più parti evidenziato il rischio di un possibile “appiattimento” dell’attività di consulenza e assistenza legale, in quanto l’elemento creativo proprio dell’attività umana dell’operatore del diritto cederebbe necessariamente il passo ad un sistema interamente automatizzato.
Ulteriori problematiche riguardano infine il tema della data security, soprattutto se si considera la possibilità per gli avvocati di inserire nei prompt che si sottopongono ai sistemi di IA informazioni riservate e coperte da segreto professionale dei propri clienti, le quali potrebbero venire processate dal sistema anche dopo il loro inserimento ai fini dell’apprendimento e sviluppo del sistema stesso.
Recenti casi di applicazione giudiziaria dei sistemi di IA
Negli ultimi anni l’IA è stata al centro dei riflettori in numerosi casi, in cui è stata utilizzata in vari modi nell’ambito del settore legale, particolarmente all’interno di procedimenti giudiziari.
Già nel 2016, nel caso Wisconsin v. Loomis, la Corte Suprema del Wisconsin aveva inflitto una pena all’imputato determinandola sulla base dei risultati di un software progettato per la valutazione della pericolosità sociale di un individuo.
Più di recente, ad agosto 2023, nel caso Louboutin v. M/S Shoes Boutique la risposta ad un quesito fornita da ChatGPT è stata utilizzata come mezzo di prova del carattere distintivo acquisito dal marchio della attrice. Nel caso di specie, la High Court of Delhi ha tuttavia evidenziato che allo stato ChatGPT non possa costituire la base giuridica per la soluzione di questioni legali o di fatto in un procedimento, considerato che la risposta di un chatbot basato su Large Language Model (LLM) dipende da una serie di fattori quali la natura e la struttura della domanda posta dall’utente e i dati di addestramento, ed è inoltre possibile che i chatbot IA generino risposte errate, casi fittizi, dati fantasiosi, ecc.
A settembre 2023, un noto giudice della Court of Appeal inglese, Lord Justice Colin Birss, ha affermato di essersi servito dell’aiuto di ChatGPT per la redazione di parte di una sentenza, dichiarandosi soddisfatto del risultato e sottolineando al contempo l’opportunità di limitare l’utilizzo dei sistemi di IA allo svolgimento di compiti dei cui risultati il giudice possa verificare l’accettabilità.
Altri utilizzi di ChatGPT sono stati invece meno fortunati. È noto il caso Mata v. Avianca, in cui due avvocati di New York sono stati sanzionati dalla corte per aver citato precedenti giudiziari suggeriti da ChatGPT, in realtà inesistenti.
Le prime raccomandazioni sull’uso dell’IA nel settore legale
Proprio alla luce delle problematiche e dei rischi sopra evidenziati, nell’ultimo periodo vi sono stati da più fronti tentativi di porre dei limiti all’utilizzo dei sistemi di IA nel settore legale, attraverso raccomandazioni e linee guida.
Negli Stati Uniti, diversi Tribunali hanno introdotto obblighi di trasparenza per gli avvocati che utilizzano strumenti di IA generativa, imponendo loro di dichiarare se e in che modo tali strumenti siano stati utilizzati nella redazione degli atti, e di attestare che i risultati generati sono stati sottoposti a revisione umana (in questo senso, ad esempio, l’ordine della District Court for the Eastern District of Pennsylvania di giugno 2023).
Quanto all’Europa, va anzitutto ricordato che nella proposta di Regolamento dell’Unione Europea sull’IA sono espressamente qualificati come “ad alto rischio” i sistemi di IA “destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”.
La Commissione Nuove Tecnologie della Fédération des Barreaux d’Europe (FBE) ha inoltre pubblicato, a giugno 2023, un rapporto intitolato “Gli Avvocati Europei Nell’era Di ChatGPT”, contenente una serie di linee guida per sfruttare al meglio le opportunità offerte dai modelli linguistici di grandi dimensioni e dalla IA generativa, e allo stesso tempo formare gli avvocati ad un utilizzo responsabile e deontologicamente corretto degli strumenti di IA.
Le raccomandazioni della FBE
In particolare, la FBE ha delineato 7 raccomandazioni fondamentali che dovranno essere seguite dagli avvocati. Tali raccomandazioni includono, oltre alla necessità di conoscere il funzionamento e i rischi della tecnologia di IA utilizzata e di esaminare attentamente i termini di servizio stabiliti dai fornitori del sistema di IA, anche il controllo autonomo da parte dell’avvocato dei risultati forniti dalla macchina attraverso analisi, ricerche, verifiche dei fatti e giudizio professionale.
Inoltre, la FBE raccomanda che, nel formulare le domande al sistema di IA, l’avvocato prenda le necessarie precauzioni per proteggere la riservatezza delle informazioni coperte da segreto professionale, evitando ad esempio l’inserimento diretto o indiretto dei dati del cliente nelle prompt. La FBE raccomanda la scrupolosa osservanza delle regole del GDPR, anche considerato che i dati contenuti nei prompt potrebbero essere utilizzati anche per l’apprendimento e sviluppo del sistema di IA.
La FBE invita infine gli avvocati a comunicare con trasparenza ai propri clienti l’utilizzo che lo studio legale fa dei sistemi di IA, informando il cliente circa lo scopo per cui vengono utilizzati e circa i relativi vantaggi, limitazioni e garanzie.
Conclusioni
L’evoluzione dei sistemi di IA nel settore legale e la sempre più frequente adozione degli stessi nella pratica quotidiana di giudici e avvocati rendono necessario un attento monitoraggio di tali utilizzi.
In particolare, i diversi rischi sopra delineati, oggetto di raccomandazioni specifiche da parte di diverse istituzioni, mostrano l’attualità del tema di un possibile intervento legislativo volto a regolare l’utilizzo di tali sistemi nella pratica giudiziaria, cercando al contempo di evitare il rischio di una eccessiva regolamentazione.