È ormai prassi quotidiana per un legale che si occupa di diritto delle nuove tecnologie rispondere a domande aventi come tema la possibilità di integrare sistemi di intelligenza artificiale nell’organizzazione, nella produzione e/o nei servizi dell’impresa.
Indice degli argomenti
Intelligenza artificiale in azienda: specificità e considerazioni preliminari
È indubbio che le tecnologie di IA costituiscano in molti casi una facilitazione, che in potenza diminuisce costi e complessità di alcune lavorazioni e servizi.
Gli strumenti di IA hanno però particolarità di funzionamento, contrattuali e regolamentari che devono essere attentamente considerate ed affrontate prima di deliberarne l’impiego: non devono essere considerate un equivalente perfetto delle corrispondenti lavorazioni e servizi resi tradizionali. Decidere di usare l’AI al posto di una lavorazione tradizionale è come se un ristorante, invece di far cucinare il proprio chef, decidesse di usare un catering che cucina su ordinazione il cibo in altra sede e lo porta già pronto: i clienti del ristorante avrebbero il cibo desiderato ma non è detto che accettino questa modalità di preparazione e può darsi che gli ingredienti usati dal catering o le relative lavorazioni non siano di qualità corrispondente a quella dello chef del ristorante anche se, all’apparenza, le preparazioni fossero identiche.
Analisi legale dell’intelligenza artificiale nei processi produttivi
Decidere di scrivere codice, realizzare design, immagini, video o testi o analizzare documentazione con l’intelligenza artificiale – anche se queste attività non sono regolate specificamente dall’AI Act ed i relativi servizi sono disponibili a chiunque sul mercato – richiede particolari cautele ed analisi preventive di tipo legale.
Facciamo l’esempio di un’impresa di sviluppo software che decida di utilizzare l’AI per generare il codice delle app commissionate dalla propria clientela – anche solo in parte e ciò determini perché, in base ai propri test, la qualità della app AI-generated è paragonabile a quella del programmatore “umano”.
L’utilizzo del sistema di AI per generare i prodotti consegnati alla clientela richiede il controllo e revisione dei contratti tra lo sviluppatore software e la propria clientela e questo in maniera diversa, a seconda se lo sviluppatore rivenda direttamente le app (ad esempio su uno store digitale) oppure le realizzi per altra impresa, che poi le userà direttamente o le rivenderà.
Nel caso delle app realizzate da piattaforme di IA generativa – ce ne sono anche di specializzate – ad esempio, occorre anzitutto verificare (meglio se da un legale specializzato) le condizioni d’uso della piattaforma: alcuni fornitori prevedono che la app creata rimanga di titolarità della piattaforma o che non sia idonea alla commercializzazione o, ancora, che la piattaforma rimanga contitolare dei diritti d’autore sul codice generato e, soprattutto, che il medesimo codice e la medesima “app” possa essere generata anche a favore di altri clienti.
In sostanza, è possibile che si ottenga un app realizzata con tutti i crismi ma sulla quale lo sviluppatore non potrà mai vantare diritti esclusivi.
Chiunque abbia visto un contratto con il quale si commissiona software sa che sono sempre presenti le clausole per cui lo sviluppatore garantisce che quanto consegnato non viola proprietà intellettuale di terzi e che il cliente avrà diritti esclusivi sul codice… con l’IA questo non è quasi mai possibile: le condizioni generali dei sistemi di IA raramente prevedono che l’output sia interamente di proprietà dell’utente ma, soprattutto, i sistemi di IA generativa non sono in grado di assicurare che l’output (in questo caso il codice) dato all’utente X non sia anche proposto all’utente Y.
Aggiungiamo che lo sviluppatore potrebbe non essere in grado di garantire che l’app consegnata – ma realizzata dall’AI – sia “sicura”, che non abbia bug, che non abbia buchi di sicurezza, semplicemente perché è stata realizzata da un sistema esterno alla sua organizzazione, a meno di non verificare daccapo l’app internamente – cosa che probabilmente annullerebbe tutti i vantaggi di “efficienza” dello sviluppo mediante AI.
Sarebbe poi necessario verificare – ammesso sia possibile – come vengono gestiti dal sistema di IA in questione i dati di input, i “prompt” che l’utilizzatore fornisce al sistema per ottenere il codice… le indicazioni contenute nei prompt costituiscono infatti, in molti casi, dati riservati del Committente, soggetti a un accordo di riservatezza (il c.d. NDA) e non possono essere rivelati a terzi.
Intelligenza artificiale in azienda e rischi sulla riservatezza dei dati
La piattaforma AI che genera il codice è appunto un terzo e potrebbe utilizzarli per addestrare il proprio sistema, in violazione dell’accordo di riservatezza di cui sopra.
Simili considerazioni si possono fare per ogni uso di AI generativa nell’ambito dei processi aziendali, anche banale: è invalso da tempo l’uso dell’AI generativa per la stesura di email, relazioni e presentazioni aziendali o per traduzioni, ma – anche qui – occorre attentamente valutare le conseguenze della “trasmissione” del documento alla piattaforma e cosa la stessa farà con quei dati; se traduciamo un testo riservato, siamo certi che verrà mantenuto tale dalla piattaforma di traduzione? Pensiamo infatti che, se incarichiamo un perito, un traduttore, un avvocato, un assistente per supportarci, senza dubbio facciamo firmare accordi di riservatezza o, comunque, possiamo affidarci al segreto professionale. Perché queste cautele vengono dimenticate quando si tratta di sistemi IA?
Proprietà intellettuale e intelligenza artificiale in azienda
È bene fare attenzione a non confondere gli aspetti sopra evidenziati con temi relativi alla “privacy”: il fatto che la piattaforma che intendiamo usare sia conforme al GDPR (o si dichiari tale) non è indicativo del fatto che non abbia le potenziali criticità appena evidenziate; il GDPR riguarda infatti i “dati personali”, qui stiamo parlando invece, nella maggior parte dei casi, di know-how, segreti aziendali e dati non personali.
Peraltro, sono frequentissime ormai le notizie di cause internazionali verso le piattaforme di AI generativa da parte dei titolari di copyright editoriale, fotografico, musica e, non ultimo, di azioni collettive da parte di programmatori: tutte sono dirette a contestare che i modelli di AI generativa possano essere addestrati utilizzando materiale coperto dal diritto d’autore. Laddove questi giudizi abbiano successo ci potrebbe essere un effetto a cascata che rende – per così dire – inutilizzabili i contenuti generati dall’AI addestrata impropriamente. Implementando dunque senza la dovuta attenzione l’AI generativa nei processi aziendali si rischia di “contaminare” la utilizzabilità futura dell’output e, anche qui, invalidare eventuali cessioni del medesimo output che l’impresa abbia fatto alla propria clientela o al pubblico.
Responsabilità nell’uso dell’intelligenza artificiale in azienda
È bene anche ricordare che la responsabilità per eventuali errori contenuti nell’output ricevuto – ad esempio un bug in un programma o una traduzione errata – difficilmente saranno imputabili alla piattaforma di AI generativa e, anche qui, sarà onere dell’impresa che ha fatto generare il contenuto quella di controllarne l’accuratezza e la liceità perché ne sarà direttamente responsabile. Se un giornale pubblicasse l’articolo di un giornalista, che lo ha scritto avvalendosi dell’IA, sia il direttore che il giornalista sarebbero responsabili di eventuali errori nell’articolo e non potrebbero difendersi sostenendo che lo ha scritto un sistema di IA.
Linee guida per l’intelligenza artificiale in azienda
Cosa fare dunque per poter essere tranquilli rispetto all’uso dell’AI generativa?
Il consiglio è quello di effettuare un’analisi preventiva del sistema che si intende usare, un risk assessment anzitutto legale, su quali siano i limiti e le criticità delle condizioni d’uso, quali siano le garanzie offerte, quali siano le specificità da richiedere (a volte esistono più versioni del medesimo sistema di AI, con caratteristiche, condizioni d’uso e garanzie di sicurezza diverse); spesso occorre utilizzare le versione B2B o enterprise del sistema per assicurarsi che i dati rimangano riservati o di acquisire la proprietà esclusiva di quanto viene generato.
In questa analisi si dovrà anche comprendere se l’utilizzo inteso del sistema presenti divieti o criticità in relazione ai divieti posti dall’AI Act. Ad esempio, un sistema di AI generativa vocale che sia messo a gestire telefonate promozionali non dovrà diventare una sorta di “persuasore occulto” gestito dall’IA, magari utilizzando sistemi di rilevazione delle emozioni o profilazione.
Occorre essere preparati, in dipendenza dell’analisi legale di cui sopra, a scegliere un sistema diverso o accettare che vi saranno limiti nella possibile implementazione.
È necessario anche predisporre una procedura aziendale di uso dell’intelligenza artificiale nei processi produttivi – che chiarisca ai dipendenti chiamati ad utilizzare il sistema cosa si può fare con lo stesso e quali tipi di dati e lavorazioni possono essere affidati all’AI.
È infine consigliabile verificare, con il legale specializzato o con tecnici, le misure di sicurezza e riservatezza dei dati applicate dal sistema che si è scelto.
Sarebbe infine consigliabile nominare un referente aziendale che – similmente al DPO – sia incaricato di supervisionare l’uso dell’AI in azienda e fare da punto di contatto per eventuali reclami ricevuti.
Trasparenza e valutazione strategica dell’intelligenza artificiale in azienda
Non è, infine, da sottovalutare la valutazione sul fatto che vi siano obblighi – contrattuali o di Legge – che impongono di rivelare alla clientela che il prodotto fornito è realizzato – totalmente o parzialmente – con l’utilizzo dell’intelligenza artificiale. Alcuni sistemi (es. OpenAI) impongono questo tipo di obblighi ai propri utenti. Tali obblighi divengono poi inderogabili se si tratta di un sistema in grado di prendere decisioni automatizzate che possono avere effetti avversi sull’utente, ad esempio un sistema per analizzare le bollette e suggerire l’offerta più conveniente o per valutare se concedere un mutuo al richiedente.
Non dobbiamo dunque pensare che l’uso dell’IA sia una bacchetta magica e una scorciatoia che – con un colpo di mouse – rende l’attività di impresa semplice e ne abbassa radicalmente i costi; ci sono situazioni in cui l’IA – specie per la velocità operativa – porta grandi vantaggi come ci sono casi in cui l’adozione dell’IA non è indicata e rischia di far aumentare i costi o allontanare clienti.
La valutazione, oltre che legale è strettamente correlata anche al tipo di servizio atteso dal cliente e al valore aggiunto percepito dal medesimo- Il delegare le realizzazioni dell’IA potrebbe in alcuni casi diminuirlo e abbattere anche il valore del know-how aziendale, dato che le risorse interne potrebbero progressivamente perdere le abilità necessarie a creare “da zero” il prodotto e il cliente potrebbe anche decidere di far da sé, senza più necessità dell’apporto del fornitore. Una ultima notazione, proprio su questo punto e che potrebbe essere di particolare interesse per le startup, riguarda il fatto che una eventuale futura due diligence svolta da investitori/acquirenti dell’azienda potrebbe valutare negativamente l’uso dell’IA nei processi aziendali, in quanto l’impresa diventa dipendente da un fornitore esterno (la piattaforma IA) e diminuire così il valore complessivo dell’azienda.
È bene dunque dedicare risorse e tempo all’analisi preventiva delle criticità della tecnologia che si intende usare, per poter poi evitare sorprese future e poter correttamente contrattualizzare e adottare l’internamente le tecnologie AI.