l’approfondimento

AI e avvocati, alla ricerca di regole per le piattaforme digitali: il caso USA



Indirizzo copiato

Negli Stati Uniti è acceso il dibattito sulla regolamentazione delle piattaforme digitali che supportano i legali nella redazione degli atti giudiziari e dei pareri per i clienti: ecco la situazione

Pubblicato il 13 nov 2023

Luciano Daffarra

C-Lex Studio Legale



conciliaweb - giustizia - controversie

Il tema dell’impiego delle piattaforme di intelligenza artificiale ha sollevato e continua ad alimentare un crescente numero di problemi: essi riguardano in particolare l’affidabilità degli algoritmi su cui quelle si fondano, provocando rischi di violazione sia dei dati personali che degli altri diritti fondamentali dell’uomo, in tal modo mettendo a repentaglio i principi di trasparenza che devono informare il loro funzionamento. Per tale ragione, i nuovi apparati, sviluppati per fornire i servizi di intelligenza artificiale, debbono passare attraverso un’approfondita fase di verifica circa i rischi di errori e di danni che possano derivare dal loro uso incorretto oltre che non accuratamente guidato.

Nel sistema giuridico statunitense, le questioni più rilevanti che agitano l’impiego della tecnologia legata all’IA c.d. “generativa”, sempre più di frequente utilizzata dagli studi legali, vi è quella relativa alla regolamentazione delle piattaforme digitali che li assistono nell’affrontare la redazione di atti giudiziari e di pareri per i loro clienti.    

L’intervento dell’American bar association

In proposito, l’ABA (American Bar Association) ha di recente creato una Task Force che mira ad affrontare e superare i problemi che sorgono per effetto dell’uso improprio degli apparati di machine learning, quali essi si sono determinati in tempi recenti negli USA. Il punto di maggiore criticità a tale riguardo è stato raggiunto di recente a causa delle indicazioni e citazioni giurisprudenziali errate che ChatGPT aveva fornito a uno studio legale di New York, i cui legali li avevano utilizzati negli atti depositati in causa nel corso di una controversia per il risarcimento dei danni chiesti da un passeggero a una compagnia area colombiana per le lesioni al medesimo provocate da un carrello portavivande sfuggito al controllo degli steward durante un volo per New York.

Tale situazione di disagio, che aveva portato all’ordine del giudice, impartito all’avv. Steven A. Schwartz, di porgere le proprie scuse alla corte e ai magistrati citati nelle sentenze inventate da ChatGPT e riprodotte in atti nella vicenda sopra ricordata, era stata seguita dall’emissione di numerosi ordini da parte di alcuni giudici, con l’intento di limitare il ricorso degli avvocati all’impiego degli algoritmi di IA, tanto che – fra i molti – il 6 giugno 2023, il giudice Michael M. Baylson dell’Easter District della Pennsylvania ha stabilito che: “Se un avvocato ha fatto uso dell’IA, per sé o per altri come parte di un processo, per la preparazione di un ricorso, di una comparsa di risposta, di un’istanza, di una memoria o di altro atto di fronte a me, egli DEVE, attraverso una dichiarazione chiara e comprensibile, rendere noto quale piattaforma di IA egli abbia impiegato per la preparazione del documento processuale e CERTIFICARE che ciascuna e tutte le citazioni riferite a fonti normative, come pure quanto riportato negli scritti, è stato verificato come accurato”.

L’ordine della United States Court of International Trade

Ancor più prescrittivo e cogente è stato l’ordine emesso l’8 agosto 2023 dalla United States Court of International Trade, la quale ha stabilito che il deposito di atti giudiziari deve essere rispettoso delle informazioni riservaste e dei segreti di impresa, per la qual ragione il tribunale impone che, seppure i fornitori dei servizi di IA possano assumere che non conservano nei propri server le informazioni e i dati ricevuti dagli utenti, i loro programmi “imparano” dalle conversazioni avute con ciascun utente e non sono in grado di fare una distinzione fra le informazioni riservate e quelle che non lo sono.

Per tale ragione la corte ha ordinato che qualsiasi atto portato all’attenzione del giudice Stephen A. Vaden che contenga testi redatti tramite l’ausilio dell’IA generativa, a fronte di domande formulate ai sistemi simili o analoghi a ChatGPT e Google Bard (senza limitazione alla generalità di questi), debba essere accompagnato da una dichiarazione che indichi il programma utilizzato e la parte del testo che provenga da tale fonte. Inoltre, viene prescritto che il soggetto che si rivolga a tale tribunale debba certificare che l’impiego di quel programma non comporta la rivelazione di alcuna informazione confidenziale o riservata a nessun soggetto non autorizzato a conoscerla.

Gli strumenti necessari

Una delle prime riflessioni che sorgono da tale situazione di incertezza circa l’affidabilità dei programmi di IA è data dal fatto che il loro impiego per fini di studio e approfondimento legale deve provenire da strumenti appropriati per tale finalità.

Senza escludere che in futuro possano essere compiuti grandi progressi nella qualità del servizio di assistenza legale fornita dai principali motori di IA di cui dispongono le grandi imprese come Open AI o Microsoft (“ChatGPT” e “Bing”, per esempio), oggi nel settore legale vi sono piattaforme come “Casetext – Co-Counsel” oppure “Leah Co-Pilot” che, pur avvalendosi del “motore” di ChatGPT4, sono specificamente orientati a fornire esclusivamente assistenza legale qualificata agli utenti.

Per quanto riguarda la stesura dei contratti, è stato creato il programma di IA “Henchman Contract” che dà accesso alla conoscenza dei dati raccolti dal sito web, mettendo a disposizione degli utenti le clausole contrattuali esistenti e consentendo la modifica dei contratti già redatti dai legali, in tempi ridotti e con completezza di clausole standard.

Ovviamente, questi strumenti dovrebbero essere sempre utilizzati nella consapevolezza che essi non sono in grado di sostituirsi alla competenza e professionalità dell’avvocato, il quale solo conosce le esigenze specifiche del proprio cliente, l’estensione delle sue necessità, la controparte con cui si relaziona, lo stesso carattere e atteggiamento personale degli interlocutori cui propone la soluzione al quesito, la bozza dell’atto o del contratto predisposto.

Se, quindi, non ci sono dubbi che l’uso dell’IA porti con sé una serie di vantaggi sul piano del sostegno all’opera professionale dei legali come: la velocità della ricerca, l’automatismo di alcuni lavori ripetitivi (si pensi alla compilazione automatica dei contratti redatti su formulari standard o su moduli), la possibilità di prevedere con ragionevole approssimazione l’esito di una controversia, la ricerca approfondita e risalente nel tempo delle norme, delle opinioni dottrinali e della giurisprudenza in una determinata materia e la valutazione bilanciata dei rischi complessivi, i problemi di tutela delle informazioni riservate, rimangono tuttora un problema irrisolto. Tali questioni non risultano superate dalla presenza dei “service terms” con cui i gestori delle piattaforme di IA si premurano di garantire che le informazioni e i dati da essi trattati:

  • non sono disponibili ad altri clienti;
  • non sono neppure disponibili alla stessa piattaforma digitale che li raccoglie ed elabora;
  • non vengono utilizzati per ottimizzare il servizio;
  • non sono impiegati per implementare altri servizi connessi a quello base[1].

La necessità di una task force

La persistenza di controversie avviate da parte di numerosi titolari dei diritti circa l’appropriazione e il trattamento abusivo dei dati raccolti dai motori di IA è quindi rafforzata dal contenzioso in essere.

Da queste brevi notazioni possiamo comprendere le ragioni che hanno preoccupato l’ABA (American Bar Association), nel momento in cui essa ha deciso di creare la Task Force sull’impiego dei sistemi di IA, che abbiamo sopra ricordato. La volontà dell’associazione è principalmente quella di impedire che, attraverso il trattamento delle informazioni raccolte e trattate dalle piattaforme digitali di IA, si possa aggirare il principio inviolabile del client-attorney privilege, cioè l’obbligo di assoluto rispetto per le informazioni confidenziali e riservate che vengono scambiate dal cliente con l’avvocato per la difesa degli interessi del primo.

L’organismo che rappresenta gli avvocati statunitensi ha poi rilevato, in una recente comunicazione agli iscritti, che – oltre al noto caso sopra ricordato in cui ChatGPT aveva fornito risposte inaccurate, per non dire totalmente errate e, in alcuni casi “inventate,” circa il contenuto di talune sentenze riportate in atti dai difensori della parte attrice (si veda la nota n. 3) –per gli avvocati che ricorrano al supporto degli apparati di IA si presentano ulteriori seri intralci ad un corretto e trasparente ricorso alla giustizia.

L’ABA ha osservato, in particolare, che “… sebbene i computer possano simulare la vista, la parola e altre capacità umane, hanno difficoltà a comprendere le sfumature del comportamento umano come il tono, le emozioni, l’intuizione e l’empatia. Inoltre, anche se l’intelligenza artificiale di oggi spesso produce risultati che soddisfano o superano le capacità umane, ad esempio nel riconoscimento delle immagini e nell’elaborazione vocale, essa presenta evidenti limiti (…)”[2].

Dal momento che, come ogni ordine professionale, l’ABA pretende dagli avvocati iscritti che il loro comportamento si attenga alle Model Rules of Professional Conduct, emanata dall’associazione e tenute costantemente aggiornate, essa si è munita di un assetto di norme precise e dettagliate. Esso include alcune disposizioni suscettibili di un’applicazione disciplinare che dispiega i propri effetti non solo nell’ambito delle casistiche tradizionali di deontologia professionale, ma si orienta pure verso i comportamenti derivanti dall’utilizzazione degli algoritmi di IA in seno all’attività legale. Infatti, le norme deontologiche forensi dell’ABA in vigore negli Stati Uniti fissano una serie di principi generali che possono essere invocati e applicati anche nell’attuale contesto tecnologico.

L’obbligo di consultazione

Ci riferiamo in primo luogo, alle disposizioni che prevedono l’obbligo di consultazione con il cliente circa le modalità attraverso le quali gli obiettivi dell’attività legale devono essere raggiunti dai professionisti incaricati. Tali previsioni, che assumono riflessi pure sull’impiego dell’IA da parte degli avvocati, sono contenuta nell’art. 1.4 delle Model Rules[3], il cui dettato impone al professionista – nel fornire un’assistenza competente al suo interlocutore – di “(2) consultarsi con il cliente secondo principi di ragionevolezza sui mezzi con cui raggiungere gli obiettivi del cliente”. Questo vincolo implica, avuto riguardo all’impiego delle nuove tecnologie conoscitive, che il professionista informi il proprio rappresentato circa l’eventuale utilizzo da parte dell’avvocato dei sistemi di IA per lo svolgimento dell’incarico, poiché tale modalità rileva anche sulla misura del compenso da riconoscere al legale per l’attività svolta.

La tutela della riservatezza

Assume analogo rilievo, avuto riguardo alla tutela della riservatezza, la Regola 1.6 delle Model Rules, che impone all’avvocato di non rivelare a terzi informazioni relative al cliente, a meno che il cliente stesso non dia il suo consenso informato a tale diffusione, ovvero qualora la divulgazione di tali dati sia implicitamente autorizzata per l’esercizio dei poteri di rappresentanza conferiti al legale, ovvero ancora qualora la comunicazione al pubblico di quei dati sia consentita dalla legge o dalle stesse regole di condotta.

A queste inderogabili norme di comportamento, cui sono assoggettati gli avvocati statunitensi, si accompagnano ulteriori prescrizioni alla cui violazione può concorrere un utilizzo non appropriato dei motori di IA. A tale proposito, risultano altresì prescritti dalle Model Rules:

  • precisi obblighi di veridicità dei riferimenti, fatti dagli iscritti all’Albo, ai fatti materiali e alle norme di legge citate in atti (ovviamente inclusa l’inerente giurisprudenza)[4];
  • chiare responsabilità del professionista abilitato per l’impiego a supporto della propria attività di un assistente non avvocato;[5]
  • l’obbligo per il legale abilitato di rendere disponibili le informazioni che siano necessarie per correggere equivoci o malintesi che possano sorgere in una determinata questione trattata per iscritto[6].

Tutte queste prescrizioni possono essere ovviamente riferite ai dati e alle informazioni raccolte e trattate sia attraverso fonti non certificate, sia per mezzo delle stesse elaborazioni di prompts che derivano dall’utilizzazione dell’IA.

Il fattore umano

Dato atto dei termini generali in cui possono essere fatti rientrare gli impieghi degli strumenti di supporto legale fondati sull’IA, va detto che i recenti interventi dell’ABA hanno operato attivamente nel senso di una puntuale regolamentazione del comportamento degli avvocati di fronte al cambiamento tecnologico repentino che sta incidendo sulla professione. Con la risoluzione n. 604, assunta durante il convegno ABA al Midyear Meeting del giugno 2023, la Camera dei Delegati ha raccomandato interventi immediati di adesione alle Linee Guida sviluppate dall’ABA da parte di tutti gli enti federali coinvolti[7]. Detto intervento ha fatto seguito alla precedente risoluzione, la n. 112/2109, che l’ABA stessa aveva assunto il 12-13 agosto del 2019,[8] mirante a fare positivamente prendere in considerazioni dalle istituzioni governative le problematiche derivanti dall’impiego degli algoritmi di IA.

Lungo la medesima direzione indicata dall’interpretazione delle disposizioni di deontologia forense dell’ABA si pone il progettato inserimento all’art. 1.6 delle Model Rules del seguente paragrafo: “La riservatezza richiede la comprensione del funzionamento e delle misure di sicurezza inerenti ai sistemi di intelligenza artificiale per evitare l’accesso involontario alle informazioni del cliente, ad esempio da parte di sistemi non sicuri, o da parte di assistenti “intelligenti” che trasmettano dati al fornitore del servizio, come pure l’impiego dell’ intelligenza artificiale che venga addestrata sui dati di un altro cliente, oppure l’uso di licenze open source che richiedano la condivisione”. Tale precetto riassume ed esplicita i contenuti che abbiamo brevemente passato in rassegna, in quanto rappresentano il nodo centrale della tutela dei dati riservati gestiti e custoditi dagli avvocati.

Da quanto abbiamo potuto constatare nell’articolato scorrere della disciplina della segretezza e della tutela dei dati di cui gli attorney-at-law statunitensi iscritti agli albi professionali sono affidatari, si percepisce l’emergenza di una seria preoccupazione da parte dell’ordine professionale nei confronti  di un impiego incontrollato dei servizi legali forniti dagli apparati di IA, in quanto una disseminazione estesa dei dati riservati dei clienti, oltre a porre in discussione il c.d. client-attorney privilege potrebbe incidere negativamente sulla stessa credibilità della categoria, compromettendone il futuro.  

Cosa succede in Europa

Sul versante europeo, va ricordato che la Commissione nuove tecnologie della FBE la Federazione europea degli avvocati, ha studiato e reso disponibili le Linee guida “Gli avvocati europei nell’era di Chat GPT”, volte a indirizzare gli avvocati verso un impiego dell’IA corretto e rispettoso delle regole deontologiche della professione negli Stati Comunitari. Pur dando atto dell’importanza di questi passi volti a governare un segmento tanto delicato quanto importante della professione forense, siamo certi che gli ordini professionali dei singoli stati vorranno affrontare il problema in maniera sistematica e approfondita. In Italia, l’Associazione Nazionale Forense (ANF) si è già attivata per cogliere le opportunità dell’impiego dell’IA nell’avvocatura e il Consiglio Nazionale Forense sta orientandosi verso la creazione di un portale comune per magistrati, avvocati e cittadini.

Note


[1] Risulta che tali obblighi vengano inclusi nei contratti stipulati nelle licenze commerciali per i servizi professionali o aziendali e limitatamente ad essi. Alcuni contratti contengono invece condizioni generali di contratto, le quali stabiliscono che i gestori degli apparati di IA abbiano il diritto di monitorare il sistema, impegnandosi ad assolvere alle istanze degli utenti che lamentino un’utilizzazione del servizio che possa violare i codici di condotta, essendo previsto anche l’accesso ai dati dei “prompts” (quesiti) da parte di personale umano quando potenziali violazioni siano segnalate dal sistema di rilevamento degli abusi. Preme ricordare che all’atto del lancio di ChatGPT da parte di Open AI al fine del c.d. “beta-testing”, l’impresa statunitense abbia dichiarato di riservarsi il diritto di fissare e conservare i “prompts” ricevuti per svolgere ulteriori test e per formare il sistema.

[2] Avuto riguardo ai diritti di proprietà intellettuale, l’ABA ha espresso, fra gli altri, questo chiaro concetto: “L’intelligenza artificiale pone sfide uniche, poiché informa e talvolta sostituisce il processo decisionale umano. (…) . Tuttavia, gli algoritmi non sono intrinsecamente più equi dei decisori umani. L’intelligenza artificiale spesso dipende dai dati di addestramento elaborati per pervenire a un modello decisionale. Tale generazione di informazioni può portare a risultati distorti se i dati generativi stessi incorporano componenti pregiudizievoli, siano esse intenzionali o meno. Gli algoritmi dipendono anche dalle scelte fatte dagli sviluppatori, ad esempio, nello stabilire quali funzionalità debbano essere incluse nel processo decisionale. L’inclusione o l’esclusione di determinate funzionalità può portare a risultati discriminatori”.

[3] La Regola del Modello ABA 1.1 reca il titolo Client-Lawyer Relationship; la Rule 1.4 è intitolata “Communications” nel medesimo contesto.

[4] Rule 4.1 “Truthfulness in Statements to Others”

[5] Rule 5.3 “Responsibilities Regarding Nonlawyer Assistance” (riferita a persone fisiche)

[6] Rule 8.1 “Bar Admission & Disciplinary Matters”

[7] Questo il testo della Risoluzione n. 604 dell’ABA “Esorta le organizzazioni che progettano, sviluppano, implementano e utilizzano sistemi e capacità di intelligenza artificiale (“IA”) a seguire determinate linee guida e sollecita il Congresso, gli enti decisori federali, i tribunali e i soggetti legiferanti e gli enti regolatori statali a seguire queste linee guida nella legislazione, nelle decisioni giudiziali e nello stabilire gli standard relativi all’intelligenza artificiale”.

[8] La risoluzione dell’House of Delegates ABA dell’anno 2019 recitava: “L’American Bar Association esorta i tribunali e gli avvocati ad affrontare le questioni etiche e legali emergenti relative all’uso dell’intelligenza artificiale (“IA”) nella pratica legale, tra cui: (1) orientamento, chiarezza e trasparenza delle decisioni automatizzate realizzate per il tramite dell’intelligenza artificiale; (2) utilizzo etico e vantaggioso dell’IA; e (3) controlli e supervisione dell’IA e dei fornitori che mettono a disposizione l’IA.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati