Il 17 novembre scorso la Commissione permanente per la responsabilità e la condotta professionale dell’ordine degli avvocati dello stato della California ha pubblicato una Guida Pratica per l’uso di Intelligenza Artificiale Generativa nella pratica della Legge.
L’obiettivo del documento è quello di fornire non già una guida all’uso della AI generativa nella professione legale, ma piuttosto una “tabella di raccordo” tra i doveri deontologici, espressi nelle varie norme che regolano la professione, e l’utilizzo di questa tecnologia nello svolgimento delle professione legale.
Una guida che, letta criticamente, appare un (primo) chiaro freno all’entusiasmo per le applicazioni della IA generativa nelle professioni legali e alla loro diffusione. Per alcuni versi un vero e proprio disincentivo.
La Guida Pratica dell’ordine degli avvocati della California: obiettivi e finalità
La Guida prende atto della ormai avvenuta adozione (a diversi livelli) della AI generativa anche nel quotidiano dei professionisti della legge. Non pone regole (dirette) su come, se usarla o dove o come non usarla, ammonisce invece i professionisti ad ottemperare agli obblighi deontologici durante l’utilizzo.
La guida fornisce infatti un quadro interpretativo e prescrittivo su come l’adozione della IA generativa possa e debba essere coerente con gli obblighi deontologici degli avvocati californiani indicando il “raccordo applicativo”, segnatamente con il: Duty of confidentiality; Duty of competence and diligence; Duty to comply with the law; Duty to comply with the law; Duty to Supervise; Duty to communicate; Charging for work produced by AI; Duty of candor to tribunal; Prohibition on discrimination; Duties in other jurisdictions.
Il Duty to Comply with the Law e il Charging for Work Produced by Generative AI
A meritare una prima attenzione, a mio avviso, risaltano in particolare il Duty to Comply with the law e il Charging for Work Produced by Generative AI and Generative AI Costs, per le relative implicazioni ed anche alla luce delle riflessioni a cui possono condurre il professionista italiano, come noto, alle prese con “l’assalto alla e della IA allo Studio”.
Il primo dei due recita che “l’avvocato deve rispettare la legge e non può consigliare un cliente di impegnarsi o assistere un cliente in una condotta che l’avvocato sa essere una violazione di qualsiasi legge, regola o sentenza di un tribunale quando si utilizzano strumenti di intelligenza artificiale generativi.”
Prosegue poi sottolineando che “Ci sono molte questioni legali rilevanti e applicabili che circondano l’IA generativa, tra cui, a titolo esemplificativo ma non esaustivo, la conformità con le leggi specifiche dell’IA, le leggi sulla privacy, le leggi sul trasferimento transfrontaliero dei dati, le leggi sulla proprietà intellettuale e le preoccupazioni sulla sicurezza informatica.
Prosegue prescrivendo che “un avvocato dovrebbe analizzare le leggi e i regolamenti pertinenti (ndr: all’utilizzo delle AI generative) applicabili all’avvocato o al cliente.”
Un avocato che adotta, o suggerisce di adottare, o assiste un cliente che adotta un LLM o comunque una AI generativa, senza la certezza (o certificazione ?) della piena “liceità” del sistema, ad esempio del training data set, della compliance in data protection o cybersecurity, lo fa assumendosi anche possibili (e probabili) rischi “deontologici”. (La prescrizione non precisa se può essere sufficiente una “dichiarazione” del produttore, come esimente, o se tale accertamento deve essere fatto direttamente dall’avvocato stesso.)
Una prima riflessione è che questa prescrizione, se non esclude, quantomeno pone in serio dubbio l’appetibilità di adottare nell’esercizio delle professione tutti i maggiori (e ben noti) tool “commerciali” di AI gen e LLM, se non altro in via precauzionale, sino a che i molteplici punti interrogativi su tutti i possibili profili “grigi” non saranno risolti.
Inoltre, prescrive che ogni avvocato debba compiere, direttamente o avvalendosi di colleghi esperti, valutazioni sulla liceità delle applicazioni di IA generativa (che adotta o che il cliente adotta) sotto i molteplici profili indicati (privacy, IP, data protection, cybersecurity ecc.).
I limiti alla tariffazione dei servizi svolti con l’AI
Indirettamente, poi, pone una serie di prescrizioni per quel produttore che volesse realizzare tools di AI generativa per le professioni legali. Dovrebbe infatti essere in grado di fornire “oltre ogni ragionevole dubbio” che il suo applicativo risponde a questo requisito e che il professionista che lo adotta non rischia di incorrere in alcuna violazione della prescrizione in esame.
Il secondo “criterio applicativo” dispone poi che l’avvocato non deve (must not charge) addebitare tariffe orarie per il tempo risparmiato utilizzando l’IA generativa.
I costi associati all’IA generativa possono infatti trovarsi ad essere addebitati ai clienti (pur in piena conformità con la legge), per questo viene prescritta la redazione di un accordo tariffario in cui vengano spiegati olre tutte le voci di costo, le tasse e i costi, ecc. anche quelli associati all’uso dell’IA generativa.
Prevede infatti che un avvocato possa utilizzare l’IA generativa per creare in modo più efficiente un prodotto di lavoro e che nel farlo possa poi addebitare al cliente il tempo effettivo trascorso, ad esempio, non per lo studio della soluzione della questione, ma per creare o perfezionare gli input e prompts rivolti intelligenza artificiale generativa (per svolgere al meglio il compito professionale per il cliente), così come anche il tempo utilizzato per rivedere e modificare gli output di intelligenza artificiale generativa, inclusi nel risultato per il cliente.
Questo, a mio avviso, non può non sollevare qualche domanda su quanto sia in concreto “utile” (in senso di vantaggioso) per lo studio legale (per adesso solo Californiano) affidarsi all’uso della IA generativa per lo svolgimento dei compiti professionali. Considerando che, ad esempio, lo “studio della controversia” rappresenta una parte rilevante del lavoro svolto (e fatturato) e che forse la principale applicazione prospettata per l’AI generativa in Studio è proprio per svolgere, se non in toto, almeno in larga parte questo lavoro, gran parte del lavoro non potrà essere oggetto di fatturazione, con conseguenze non solo in termini di redditività, ma di “deprezzamento” della funzione legale nel suo insieme.
Diciamo, in ipotesi, che fatturabile al cliente, rimarrebbe l’effettiva percentuale di lavoro umano nello studio e nella materiale redazione del documento (se non generato in output automatico dall’applicativo).
Un perpetuo Legal Black Friday (Circostanza che, rapportata al nostro sistema, potrebbe “rompere gli argini” dei nostri tribunali. Argini che reggono a stento, vista la già alta litigiosità del Bel Paese, e in larga parte contenuta grazie proprio al costo di accesso alla tutela legale, attentamente bilanciato dai tariffari dell’Ordine. Se si avessero atti o ricorsi a 9.99 + C.U. le cancellerie vivrebbero l’analogo di uno tzunami, paralizzando di fatto la funzione giurisdizionale).
In subordine, quantomeno, una simile prescrizione è ipotizzabile che spingerà gli studi legali a limitare quanto più possibile l’adozione di questi strumenti per conservare la “marginalità”, ponendo una seria motivazione al freno della espansione della IA generativa in questo ambito.
Si può ipotizzare poi che, per concretizzare tale prescrizione, dovranno essere introdotti dei tools da affiancare a quelli di misurazione della produttività e fatturazione automatizzata, già in uso negli Studi Legali americani da tempo, che ora inoltre misureranno (e certificheranno) anche quanto tempo, ad esempio, nello studio della controversia e/o nella redazione del atto (giudiziale o stragiudiziale) sia da accreditare al Professionista umano e quanto al “collega” artificiale, e in ultima analisi quanto poi sia da addebitare al cliente in fattura, per non incorrere in contestazioni e censure.
Aspetto questo, inoltre, non ininfluente sulla progressione della carriera, giacché, come noto, negli studi di oltreoceano avanza di ruolo più rapidamente chi fattura di più, paradigma che si tradurrà in: fatturerà di più e farà più carriera chi meno usa l’IA generativa.
Duty of Competence: competenze richieste all’avvocato
Esaminando rapidamente gli altri obblighi, a corollario di quello che, come detto, appare un “freno all’entusiasmo” sull’applicazione di questa tecnologia nella professione legale, assume interesse l’indicazione fornita per il Duty of Competence.
In sintesi, per l’applicazione delle IA a questo criterio, viene prescritto che gli output generati dall’IA possano essere utilizzati solo come punto di partenza (escludendo a priori atti “automatici”) e debbano essere attentamente esaminati e analizzati criticamente per verificarne l’accuratezza e bias, integrati e migliorati, se necessario. Rammentando che comunque, per il Charging for Work, il tempo impiegato per tali risultati non deve essere fatturati al cliente. Inoltre, viene indicato che prima di utilizzare l’IA generativa, un avvocato deve comprendere in misura ragionevole come funziona la tecnologia, le sue limitazioni e i termini di utilizzo applicabili e altre politiche che regolano l’uso e lo sfruttamento dei dati dei clienti da parte del prodotto.
Le competenze di Informatica Giuridica diventano dunque necessariamente trasversali e obbligatorie per tutti i professionisti ed è facile prevedere ci sarà lo sviluppo di un Legatech Compliance Officer, investito di queste responsabilità e che farà dissemination ai colleghi dei vari “branches” dello Studio, i quali faranno riferimento a questa figura, che fungerà da “arbiter” (e parafulmine).
In alcuni studi già si assiste alla introduzione del ‘CLIO’, il Chief Legal Innovation Officer, figura però rivolta a “guidare” lo studio nella adozione delle diverse innovazioni tecnologiche e non a garantire ed assicurare la compliance normativa e deontologica della applicazione di tali innovazioni. Al momento ancora non si rileva la presenza negli studi di figure specifiche che si assumano, per questi specifici aspetti, un analogo ruolo del Compliance Officer Aziendale, lasciando al singolo professionista l’onere di aggiornarsi, adeguarsi e ottemperare… non solo se decide di adottare tali sistemi, ma anche per relazionarsi con colleghi e clienti che l’adottano.
L’avvocato, sempre secondo la Guida, deve rivedere criticamente, convalidare e correggere sia l’input che l’output dell’IA generativa per garantire che il contenuto rifletta e supporti accuratamente gli interessi e le priorità del cliente nella questione in trattazione, anche come parte della difesa per il cliente. Il dovere di competenza richiede più della semplice individuazione ed eliminazione di falsi risultati generati dall’IA.
Sempre secondo le indicazioni fornite per il duty of competence, Il giudizio professionale di un avvocato non può essere delegato all’IA generativa e rimane sempre la responsabilità dell’avvocato.
Un avvocato deve anche prendere provvedimenti per evitare che l’eccessiva dipendenza dall’IA generativa arrivi al punto di ostacolare l’analisi critica dell’avvocato favorita dalla ricerca e dalla scrittura tradizionali. Ad esempio, l’avvocato “viene invitato” a integrare qualsiasi ricerca generata dall’IA con una ricerca eseguita dall’uomo e integrare qualsiasi argomento generato dall’IA con analisi critica e eseguita dall’uomo e revisione delle autorità (in pratica una duplicazione del lavoro?!).
L’obbligo per l’avvocato di revisionare tutti gli outpout della IA generativa
Analoghi oneri derivano dal duty of candor to the tribunal, che obbliga l’avvocato a revisionare tutti gli outpout della IA generativa prima di sottometterli alla corte, controllando riferimenti, citazioni e accuratezza, nonché ogni norma, regolamento ordine e qualsiasi requisito rilevante che renda necessaria rivelare l’utilizzo della IA. Inoltre, l’avvocato è tenuto anche ad analizzare ogni legge o regolamento pertinente in ogni giurisdizione nelle quali l’avvocato è tenuto al rispetto di dette prescrizioni. Uno studio legale californiano che adotti la IA nella sua attività, e che abbia rapporti internazionali, nella produzione di atti e, a maggior ragione, nel partecipare in procedimenti, dovrà conoscere come tali paesi regolamentano la IA nelle professione legale e assicurarsi i essere in compliance.
Ovviamente, anche se non specificato, questo criterio può esser letto come una “clausola di reciprocità”, nel senso che qualsiasi studio fuori dalla giurisdizione del Bar Californiano (sia statunitense, come estero) che volesse/dovesse operare in California, nell adottare la AI, dovrà attenersi alle prescrizioni a cui sono tenuti gli avvocati gli studi legali del “Golden State”. Come visto, gli stessi colleghi della controparte californiana sono infatti chiamati a compiere tali verifiche nel relazionarsi con le loro controparti.
Queste prescrizioni non sembrano “alleggerire” il carico di lavoro del professionista che, idealmente, si rivolge ai questi tools proprio per accelerare il lavoro e sollevarsi da incombenze, almeno, redazionali e “sburocratizzarsi”. Anzi.
Appare invece che attribuisca in carico a questi ulteriori (e non pochi) oneri, calmierando notevolmente i possibili vantaggi (vedi ad es. i limiti di fatturazione).
Oneri che, poi, non si arrestano solo a questi appena indicati.
Duty of Supervise: la supervisione del lavoro prodotto dall’IA
Infatti secondo il Duty of Supervise, ad esempio, l’avvocato (che si trovi in posizione ‘manageriale’, titolare, partner, ecc.) deve anche supervisionare le interazioni con la IA generativa degli avvocati “subordinati”, dei praticanti e dei paralegali di studio e revisionare il lavoro che ne risulta.
Devono inoltre essere previsti e organizzati corsi di formazione continua per queste figure, in cui venga fornito training sugli aspetti etici, pratici e sulle insidie di ogni (of any) uso della IA generativa.
Gli avvocati, inoltre, in ottemperanza al “Prohibition on discrimination”, devono impegnarsi anche nell’apprendimento continuo sui Bias, le implicazioni di questi nella pratica legale e gli Studi Legali devono implementare anche policy e meccanismi per identificare, riportare e risolvere potenziali bias (discriminatori) delle IA.
Infine, l’adozione di tale tecnologia è previsto si integri nell’onere di comunicazione.
Presentando fatti e circostanze al cliente, il professionista dovrebbe comunicare in che modo sia stata utilizzata la IA, in che misura, quale tecnologia, che livello di rischio e, ovviamente, con quale vantaggio (per il cliente).
Spetta all avvocato poi rivedere tutte le istruzioni o le linee guida del cliente che possono restringere o limitare l’uso dell’IA generativa. Appare quindi ipotizzabile che il cliente ”richieda e pretenda”, che per la sua questione non debba essere utilizzata la AI, e di contro, che, magari per contenere il costo, invece, l’AI venga usata il più possibile. In entrambe i casi il professionista deve attenersi alle istruzioni ricevute per l’espletamento dell’incarico, fornendo informazioni precise e puntuali al cliente.
Conclusioni
Traendo le conclusioni, in questa Guida emergono quindi: limiti nelle applicazioni e nella applicabilità, limiti nella fatturazione, oneri di supervisione, di correzione, di analisi critica e revisione umana qualificata, obblighi di comunicazione (personale, clienti, coorti), aggiornamento e formazione diretta (personale) e del personale coinvolto.
Considerando poi in ultimo i costi diretti necessari alla introduzione di questi sistemi e indiretti di quelli derivanti dai diversi oneri, includendo poi anche quelli di replicazione del lavoro, posti sulla bilancia con il “divieto” di fatturare al cliente il tempo l’utilizzo e i risultati di questi sistemi, appare che adottare una iA in uno studio legale (almeno ad oggi) sia più un “sunk cost” che offre ben pochi vantaggi che il “magic bullet” annunciato.
Allo stato dell’arte, almeno per la professione forense, alla luce di questa Guida Pratica, la California, a dispetto del suo nome, non è appare essere il Golden State della IA generativa.