L’industria legale è antiquata e lenta, ed è da tempo una candidata perfetta per l’irruzione tecnologica.
Con l’avvento dell’IA generativa è atteso un terremoto, è difficile pensare il contrario, eppure le ragioni di preoccupazione sono almeno pari rispetto a quelle che conducono ad attendere i cambiamenti conservando un certo ottimismo.
Proviamo a capire perché.
L’irruzione dell’IA nel mondo del lavoro: c’è da avere paura?
I progressi registrati nello sviluppo dei sistemi di intelligenza artificiale sono osservati con crescente preoccupazione, soprattutto da parte di coloro che si sforzano di prevedere gli impatti che queste soluzioni porteranno al mondo del lavoro.
L’ultima ondata di modelli – ChatGPT, il nuovo GPT-4 di OpenAI in primis – e la reazione che ne è derivata, testimoniano quanta apprensione si respiri, per di più in diversi ambiti professionali.
Si tratta di ansie che non fondano sul nulla, anzi, almeno in parte sono sicuramente fondate e comprensibili, ma è anche vero che la maggior parte delle preoccupazioni fin qui registrate fonda sulla paura dell’ignoto che ci aspetta, piuttosto che sulla conoscenza di ciò che già si intravede.
In un recente rapporto pubblicato, giusto per fare qualche esempio, Goldman Sachs ha previsto che i progressi dell’IA potrebbero causare l’automazione, in qualche modo, di circa 300 milioni di posti di lavoro. Si tratta, approssimativamente, del 18% della forza lavoro globale.
OpenAI, nei giorni scorsi, ha pubblicato un proprio studio, sviluppato insieme all’Università della Pennsylvania, secondo il quale ChatGPT potrebbe influenzare oltre l’80% dei posti di lavoro negli Stati Uniti.
Sembrano numeri spaventosi, ma serve porre attenzione alla vaghezza che caratterizza la formulazione dei quesiti posti alla base di questi rapporti e della terminologia utilizzata.
“Influenzato” è un’espressione che può assumere molti significati, non per forza negativi.
Le professioni che si basano sull’utilizzo del linguaggio saranno le prime a sentire il condizionamento dei modelli linguistici di grandi dimensioni come ChatGPT e GPT-4.
Si prenda, appunto la professione forense, che per le nostre riflessioni rappresenta un ottimo banco di prova.
La professione forense alle prese con l’IA
In un settore, quello giudiziario, caratterizzato da deficit strutturali ancestrali e dalla necessità di gestire risme di documenti complessi, una tecnologia in grado di comprendere e riassumere rapidamente i testi potrebbe rivelarsi immensamente utile.
I recenti progressi dell’IA sembrano fatti apposta per il lavoro legale.
GPT-4 ha recentemente superato l’Universal Bar Exam, che è il test standard richiesto per l’abilitazione professionale negli Stati Uniti, ma questo non significa che AI sia pronta per sostituire gli avvocati.
Il modello è stato certamente addestrato su migliaia di test pratici, e questo lo rende un impressionante candidato, ma non necessariamente anche un grande avvocato.
Peraltro, non si sa molto a proposito dei dati di addestramento di GPT-4 perché OpenAI non ha rilasciato grandi informazioni in proposito.
L’IA può sostituire un avvocato?
Il sistema non è quindi (ancora) pronto per sostituire un avvocato, ma è senz’altro molto bravo ad analizzare i testi, e come ha correttamente rilevato Daniel Katz, il professore di diritto del Chicago-Kent College of Law che ha condotto l’esame di GPT-4: “La lingua è la moneta nel regno dell’industria legale e nel campo del diritto. Ogni strada porta a un documento, che va letto, prodotto o in qualche modo consumato”.
È una considerazione indiscutibilmente vera: la professione forense si caratterizza per la presenza di molte attività ripetitive che potrebbero, quindi, essere efficacemente automatizzate, come la ricerca delle leggi, lo studio dei casi applicabili e l’estrazione delle prove pertinenti.
Pablo Arredondo, uno dei ricercatori che si è occupato di addestrare l’intelligenza artificiale in vista dell’esame di abilitazione, ha lavorato segretamente con OpenAI per integrare GPT-4 a Casetext, un applicativo in grado di condurre le attività di “revisione dei documenti, promemoria di ricerca legale, preparazione della deposizione e analisi dei contratti”.
Fughe in avanti ancora poco sensate
Non si tratta di novità assolute. L’intelligenza artificiale è già stata usata per rivedere i contratti e prevedere gli esiti di una procedura giudiziaria (la cosiddetta giustizia predittiva), e alcuni ricercatori hanno di recente esplorato i sistemi che potrebbero condurre l’AI ad essere d’aiuto perfino nell’iter di approvazione di una legge.
Di fronte a queste evoluzioni, com’era prevedibile, si sono registrate anche fughe in avanti poco sensate, ma per ora si tratta solo di uscite folcloristiche o poco più.
Poco tempo fa, per esempio, ha fatto un certo rumore l’iniziativa di DoNotPay, una società che si occupa di difendere i diritti dei consumatori, che ha annunciato la propria intenzione di discutere un caso in tribunale utilizzando un argomento scritto dall’intelligenza artificiale.
Si tratta di una specie di “avvocato robot“, che trasmette le proprie istruzioni ad una persona fisica attraverso un auricolare.
L’iniziativa non ha prodotto significativi frutti, se non quello di fare ottenere a DoNotPay una citazione in giudizio per aver esercitato la professione forense senza licenza.
Fino a questo punto della riflessione, l’analisi del probabile impatto dell’intelligenza artificiale – almeno quello a breve termine – sulla professione forense porta a ritenere che l’avvocato potrà avvalersi di strumenti per lavorare meglio e diventare più efficiente. E si tratta, indiscutibilmente, di una proiezione auspicabile.
Che fine faranno i praticanti?
Per altro verso, tuttavia, sarà probabilmente sempre più difficile formarsi e specializzarsi, perché il lavoro tipico del praticante verrà assorbito dalle macchine.
Passare ore sui libri e sudare i risultati di una ricerca ha un valore, un grande valore, che andrà prevedibilmente perduto. Si tratta, però, di un cammino già scritto: avremo meno tirocinanti e più programmatori impiegati nell’allenamento dei sistemi di machine learning.
La riflessione a lungo termine, invece, per ora è improcedibile ed è difficile escludere (o affermare) che l’intelligenza artificiale finirà per mettere la freccia e superare l’uomo, cessando di supportarne le attività e, più semplicemente, sostituirlo.
Al momento, gli stessi programmatori sembrano più che altro divertirsi a giocare con i modelli in fase di sviluppo per esplorarne le potenzialità, ancora sconosciute.
Alcuni limiti oggettivi dell’IA
In questo gioco, sono ancora evidenti alcuni limiti oggettivi: GPT-4, per esempio, produce argomentazioni molto convincenti ma non di rado errate, poiché basate sull’utilizzo improprio del materiale di partenza.
Pablo Arrodondo, il ricercatore cui prima accennavamo, ha raccontato di come GPT-4 l’abbia spinto a dubitare di un caso su cui lui stesso aveva lavorato in passato.
“Gli ho detto, ti sbagli” ha raccontato Arrondo, “Ho discusso io questo caso, so di cosa parliamo” ma l’intelligenza artificiale gli ha risposto: “Puoi sederti lì e vantarti dei casi su cui hai lavorato, Pablo, ma ho ragione io ed eccoti la prova”.
La prova, però, era un URL collegato ad una pagina inesistente.
Conclusioni
“È un piccolo sociopatico” ha concluso sorridendo Arrondo al termine dell’esperimento.
A quale conclusione perverremo noi, dopo aver fatto davvero i conti con gli avvocati robot, lo scopriremo presto.