Negli ultimi anni, il concetto e le applicazioni della cosiddetta “legal tech” si sono diffuse sempre nel contesto della professione forense, mettendo a disposizione dell’avvocato mezzi tecnologici a supporto dello svolgimento del proprio lavoro. Tuttavia, l’aiuto che la tecnologia e le più recenti innovazioni sono in grado di offrire possono comportare seri rischi e, conseguentemente, gravi responsabilità, che devono essere attentamente valutati e mitigati.
Il ruolo dell’intelligenza artificiale generativa
Il principale esempio è quello correlato all’impiego di strumenti di intelligenza artificiale (“IA”) generativa. Questi sistemi sono in grado di generare testi, video, immagini o altri contenuti, a seconda delle specifiche richieste inoltrate. Il risultato ottenuto deriva dal funzionamento dei modelli generativi, tra cui i “large language models” (“LLM”), che si fondano sul set di dati con cui sono stati addestrati e che, se non “corretti” dall’intervento umano, possono generare clamorosi errori.
Il caso di Manhattan
Per queste ragioni, lo scorso maggio, è finito sotto le luci della ribalta il caso dell’avvocato statunitense che, durante un’arringa difensiva innanzi al Tribunale di Manhattan per una causa di risarcimento danni, aveva citato dei presunti precedenti legali in materia, basandosi sull’output che aveva prodotto il software “ChatGPT”. Peccato che tali fonti fossero risultate, ad un controllo successivo, integralmente, inesistenti.
L’episodio limite appena citato esplicita chiaramente le problematiche connesse all’utilizzo di questa tecnologia senza il supporto di una conoscenza e una capacità adeguate, seppur nella piena consapevolezza che l’IA generativa stia già rappresentando un ausilio concreto nello svolgimento della professione legale.
La piattaforma Harvey
Una delle principali “boutique legali” operanti a livello internazionale ha annunciato, nello scorso mese di febbraio, l’integrazione di una piattaforma di intelligenza artificiale (denominata “Harvey”), basata sui più recenti modelli GPT, capace di automatizzare e migliorare contenuti legali quali contratti, documenti ottenuti in seguito ad attività di due diligence e compliance, con l’utilizzo di tecnologie quali l’apprendimento automatico e l’analisi dei dati.
Simpliciter, l’assistente legale italiano
In Italia, è stato, invece, creato, “Simpliciter”, assistente legale che unisce le caratteristiche dell’IA generativa con quelle di una banca dati giuridica, addestrato sui contenuti ricavati dalla normativa e dalla giurisprudenza nazionale.
Più in generale, in ambito legale, emergono in maniera chiara le potenzialità che l’intelligenza artificiale generativa offre agli addetti del settore, a partire dalla suddivisione in categorie dei documenti – di significativo aiuto specie nell’attività di ricerca di fonti normative e giurisprudenziali – per giungere fino alla redazione completa di documenti legali di varia natura.
Andando più nel dettaglio, se, come si dirà meglio infra, il rischio di errore è alto nello svolgimento dell’attività professionale di stesura – che, come facilmente intuibile, richiede un intervento profondo da parte del professionista – l’IA potrebbe essere utilizzata per l’automatizzazione di attività più semplici: basti pensare all’implementazione di strumenti di controllo delle scadenze processuali, per una migliore gestione delle risorse economiche ed umane a disposizione. Come detto, i sistemi generativi sono, poi, molto utili per quanto riguarda le ricerche giuridiche, in quanto hanno la capacità di analizzare in pochissimi secondi quantità notevoli di dati, fonti normative, regolamentari e sentenze.
I rischi connessi
Relativamente ai rischi correlati all’utilizzo degli strumenti di IA nella professione legale, il “Consiglio degli Ordini Forensi d’Europa” ha rilasciato una guida sul tema, cercando di sensibilizzare e, al tempo stesso, rilasciare indicazioni pratiche agli avvocati e agli studi legali nell’Unione Europea. L’analisi svolta dal Consiglio ha rimarcato l’attenzione da porre in merito ad alcuni pericoli che possono sorgere in conseguenza dell’uso dei sistemi di IA. Tra questi, il rischio legato alla dimensione extraterritoriale di tale tecnologia, per la quale è necessario verificare se avvenga un trasferimento dei dati verso paesi al di fuori dell’Unione e, in caso affermativo, la necessità di rispettare le garanzie di cui agli artt. 44-50 del Regolamento (UE) 2016/679 (“GDPR”).
Le misure di sicurezza
Occorre, inoltre, prestare attenzione alle misure di sicurezza impiegate, individuando in maniera chiara, precisa e dettagliata le modalità di trattamento dei dati personali e le tempistiche di conservazione – sulla base delle finalità scelte – e procedere, dunque, al raggiungimento delle stesse, alla cancellazione delle informazioni. Altro punto cruciale è quello legato alla trasparenza dei sistemi di intelligenza artificiale: per evitare i tipici problemi legati alla natura di “black box” degli algoritmi, serve chiarezza sul funzionamento dello strumento, anche per impedire che vengano forniti risultati influenzati fortemente da “bias”. L’utente/cliente deve sempre essere informato delle modalità in cui i suoi dati vengono trattati dall’IA, per cui spetta al titolare decidere quando e come il trattamento venga effettuato tramite un processo decisionale automatizzato e, conseguentemente, attenersi al dettato dell’art. 22 del GDPR.
Le linee guida della FBE
Ulteriori indicazioni sono emerse dalle linee guida, emesse nel mese di agosto, dalla “Commissione Nuove Tecnologie” della “Fédération des Barreaux d’Europe” (“FBE”). L’obiettivo del documento è fare in modo che gli avvocati possano sfruttare al meglio le opportunità concesse loro dai large language models e dai sistemi di IA generativa, in maniera uniforme e standardizzata nel territorio dell’UE. I punti analizzati dal lavoro approntato dall’FBE sono sette e riguardano, nello specifico:
- la comprensione dell’intelligenza artificiale generativa;
- il riconoscimento delle limitazioni e del contesto;
- il rispetto delle regole esistenti sull’uso dell’IA;
- l’integrazione della competenza giuridica;
- il rispetto del segreto professionale;
- la garanzia della protezione dei dati personali e della privacy;
- l’informazione del cliente e l’assunzione di responsabilità.
Nel dettaglio, la FBE sottolinea l’importanza di dotarsi di una conoscenza completa di questa tecnologia, in modo tale da prendere decisioni consapevoli in caso di utilizzo dell’intelligenza artificiale. È poi fondamentale che il risultato generato dal sistema sia sempre sottoposto a un controllo finale da parte dell’uomo, per verificare che l’output fornito sia accurato e aggiornato.
Altro punto importante ribadito dalla Federazione è quello della lettura approfondita dei termini di servizio del software utilizzato, per garantire che esso sia conforme agli standard deontologici e legali. È, inoltre, essenziale che venga tutelato il segreto professionale, proteggendo la riservatezza delle informazioni e le comunicazioni con il cliente, in conformità, altresì, alla normativa in tema di protezione dei dati personali: non bisogna dimenticare, infatti, che l’inserimento di elementi che consentano di veicolare fatti, situazioni, persone, all’interno di tali software, richiede pur sempre l’invocazione di un’adeguata base giuridica e di una valutazione in conformità con le regole già vigenti del GDPR. La FBE ricorda, ancora una volta, che, nonostante tali sistemi siano in grado di coadiuvare il professionista nello svolgimento dell’attività quotidiana, anche relativamente ai profili più difficoltosi e problematici, è altrettanto vero che non è possibile che essi si sostituiscano integralmente alle capacità, analitiche, critiche e di valutazione dell’avvocato nella rielaborazione dei risultati ottenuti.
Conclusioni
Sembra ormai inevitabile che la professione forense, come d’altronde sta già avvenendo anche in altri contesti lavorativi, venga supportata e, in qualche modo, facilitata dall’utilizzo di tecnologie basate sull’IA, in particolar modo sui modelli generativi. D’altro canto, non può trascurarsi la necessità di fare attenzione alle insidie, attuali e potenziali, che tali strumenti, per la maggior parte ancora in fase di sviluppo e aggiornamento, possono nascondere.
In particolare, se come accennato in precedenza, questi sistemi possono agevolare il compito dell’avvocato nella creazione di modelli di documenti legali, nell’analisi di database giuridici contenenti un cospicuo volume di informazioni, nell’automatizzazione di mansioni ripetitive e nella conduzione dei piani di pianificazione strategica, l’IA non è ancora (fortunatamente?) in grado di soppiantare in toto il ruolo del professionista, le cui capacità di giudizio e di critica sono imprescindibili nell’esercizio della professione.