Da qualche tempo un’intera area dello studio di cui faccio parte è dedicata all’integrazione di sistemi di AI nella gestione dei fascicoli e nella produzione di atti, ed è un lavoro stimolante, sia per i risultati già ottenuti che per quelli che non è difficile intravedere a breve-medio termine.
Prendi documenti, li dai in pasto al machine learning e lo addestri affinché li riorganizzi, li classifichi, estragga le informazioni più importanti, le salvi sui gestionali di studio e poi le prelevi per creare autonomamente atti.
In futuro “farà tutto lui” dicono i miei collaboratori, con un misto incoerente di timore ed entusiasmo.
Io non credo finirà così, ma non è questo il tema da approfondire adesso, perché oggi la riflessione riguarda le responsabilità che potrebbero gravare sugli avvocati, qualora l’utilizzo di questi sistemi non fosse improntato a cautela e consapevolezza.
Proviamo allora a fornire un po’ di avvertenze per l’uso, perché l’intelligenza artificiale generativa implica alcuni rischi di cui è senz’altro opportuno tenere debito conto.
Responsabilità professionale
Secondo quanto previsto dall’art. 12 del Codice Deontologico Forense (dovere di diligenza): “L’avvocato deve svolgere la propria attività con coscienza e diligenza, assicurando la qualità della prestazione professionale.”
Si tratta di un principio avente natura deontologica, ma anche di potenziale rilevanza in ambito civile, qualora l’incompetenza mostrata dal legale fosse riconducibile ad una ipotesi di colpa grave, e pertanto, si rivelasse passibile di richieste risarcitorie.
Gli avvocati, in osservanza di questo principio, hanno il dovere di fornire una consulenza legale competente e accurata ai loro clienti.
Qualora l’uso di strumenti di AI generativa conducesse a errori o inesattezze, e la supervisione del professionista, troppo fiduciosa nel sistema, apparisse lacunosa o insufficiente, ne risulterebbe evidente una responsabilità professionale per i risultati ottenuti.
Violazione della riservatezza e sicurezza dei dati
L’impiego di strumenti di AI generativa potrebbe implicare la condivisione di dati sensibili e riservati tra più soggetti, le cosiddette terze parti.
Mi riferisco, ad esempio, ai fornitori dei servizi informatici. Si tratta di società che, non di rado, operano fuori dal territorio europeo e fanno uso copioso di sub-responsabili.
Non si possono sottovalutare, in quest’ottica, i profili di responsabilità legati alle vigenti normative in materia di circolazione e protezione dei dati personali, oltre che gli aspetti, sempre più rilevanti al giorno d’oggi, in punto di sicurezza informatica.
I sistemi di intelligenza artificiale si alimentano di dati, e la loro accuratezza è proporzionale rispetto alla quantità e qualità dei dati utilizzati per il loro addestramento.
Big data, big problems.
I dati personali, difatti, non sono “cose” senza valore ma beni giuridicamente rilevanti, e come tali vanno trattati.
Conflitti di interesse
L’AI potrebbe essere utilizzata per analizzare grandi quantità di informazioni, inclusi i dati forniti dai clienti attuali, oppure riconducibili a quelli potenziali.
A prescindere dall’autorizzazione al compimento di queste operazioni, che non tutti gli assistiti sarebbero disponibili a fornire, potrebbero anche sorgere conflitti di interesse tra gli avvocati e le parti interessate.
Anche in questo caso, il profilo di criticità più immediato coinvolgerebbe la sfera etica del professionista, ma non si può del tutto escludere che un potenziale conflitto degeneri anche in altre ipotesi di responsabilità, giuridicamente rilevanti in ambito civile o penale.
Bilanciamento tra tecnologia e competenza professionale
L’uso di strumenti di AI generativa potrebbe sollevare questioni riguardo al bilanciamento tra l’utilizzo di tecnologie avanzate e la competenza tradizionale dell’avvocato.
Gli avvocati potrebbero trovarsi a prestare eccessivo affidamento all’AI, a discapito delle loro conoscenze legali e dell’esperienza personale maturata.
Le competenze giuridiche dovranno essere affiancate da quelle – indispensabili – in ambito tecnologico, ma continueremo ad avere bisogno di avvocati esperti di informatica, e non di informatici in possesso di rudimenti normativi.
Bias e discriminazione
Gli algoritmi di AI generativa sono influenzati dai dati prestati al loro addestramento, e la loro non perfetta selezione potrebbe condurre a risultati parziali o discriminatori.
Gli avvocati dovrebbero essere consapevoli di questo rischio e prendere misure per mitigare eventuali bias presenti nell’AI utilizzata.
Manutenzione e aggiornamento delle AI
Le tecnologie di AI richiedono un costante aggiornamento e manutenzione per rimanere accurate e affidabili. Gli avvocati dovrebbero essere pronti a gestire queste esigenze tecniche per garantire che l’AI generativa sia sempre all’altezza degli standard richiesti.
Conformità normativa
Al momento non esistono particolari normative di riferimento a regolamentazione dell’intelligenza artificiale in ambito legale, tali da garantirne una efficace compliance.
Si tratta, tuttavia, di un quadro regolamentare destinato inevitabilmente a mutare e a subire una prevedibile delimitazione di confini, visto l’uso sempre più diffuso e ampio di questi sistemi.
Gli avvocati dovranno porre particolare attenzione a verificare il contenuto delle condizioni contrattuali sottoscritte con i fornitori dei loro servizi, e dovranno aggiornarsi con le norme e i regolamenti che saranno applicabili a queste fattispecie.
Acquisita questa conoscenza, dovranno anche essere capaci di rilevare potenziali profili di incompatibilità tra i primi e le seconde.
Sostituzione dell’umano con l’AI
L’adozione diffusa di AI generativa nell’ambito legale potrebbe sollevare preoccupazioni riguardo alla sostituzione degli avvocati umani con algoritmi.
Ancora una volta, il primo spunto di riflessione ha natura etica, e coinvolge il rapporto di fiducia – intuitus personae – tra cliente e avvocato.
Esiste però anche un altro scenario da considerare, e attiene al profilo di utilità residua del professionista operante in ambito legale: affiancare il lavoro dell’avvocato all’intelligenza artificiale sarebbe un conto, ma appiattirsi su di essa significherebbe aprire le porte ad una vera e propria concorrente nei confronti della quale, tuttavia, sarebbe senz’altro opportuno nutrire rispetto e un po’ di timore.
Appropriata comunicazione con il cliente
Se l’avvocato si affida a strumenti di AI generativa per fornire consulenza legale, è importante comunicare chiaramente al cliente il ruolo dell’AI nel processo decisionale e garantire una comunicazione trasparente sull’uso di tali strumenti.
Proprietà intellettuale e diritto d’autore
L’utilizzo di tecnologie di AI generativa potrebbe sollevare questioni riguardo alla proprietà intellettuale e al diritto d’autore dei materiali generati.
Ci sono avvocati che non sono stati capaci di reclamare la proprietà del sito internet del loro studio, non avendo letto con attenzione il contratto sottoscritto con i programmatori incaricati.
Se il materiale è generato dall’intelligenza artificiale, chi vanta diritti sul suo utilizzo? La scelta dei fornitori e la condivisione delle clausole contrattuali è essenziale per evitare spiacevoli sorprese.
Conclusioni
Al termine di questo decalogo, un piccolo colpo di scena: a fornire gli estremi di questa riflessione è stata proprio l’intelligenza artificiale, cui ho chiesto di spiegarmi a quali profili di responsabilità si esporrebbe un avvocato nell’affidarsi a lei.
Per carità, ho preso i suoi spunti e ho cercato di assecondarne i consigli, riflettendo e rielaborando i suoi suggerimenti.
Eppure, il contenuto di questo articolo è essenzialmente prodotto da Deontologicus, il sistema di intelligenza artificiale messo gratuitamente a disposizione da Gestiolex.
Al mio co-autore, con grande rispetto e un po’ di timore reverenziale, va tutto il mio ringraziamento.