Il provvedimento del Garante per la Protezione dei Dati Personali che sospende i trattamenti dati per l’Italia sta facendo – come era prevedibile – molto parlare e dibattere sul livello esigibile di tutela di dati personali da parte di una AI. Occorre però domandarsi se esistano altre potenziali criticità e temi ai quali fare attenzione, relativamente al generale funzionamento di questo servizio e il modo migliore di farlo è di esaminare le condizioni di servizio del sistema.
Va detto che i temi che verranno segnalati – pur essendo attinenti, nella specie, al funzionamento di ChatGPT, possono fornire spunti per aspetti che sono da verificare in ogni tipo di servizio basato sull’IA. Non c’è quindi nessun intento di criticare lo specifico servizio, quanto di porre l’attenzione sulla particolare natura dei servizi basati sull’IA e comprendere quali siano gli aspetti che ognuno che li usa farebbe bene a verificare.
Questo è ancor più vero se gli output provenienti da un servizio di IA siano posti a base di un diverso servizio, che ne usa i contenuti o le API, nei fatti, rivendendo a terzi l’uso del servizio. Come si vedrà, occorre seriamente indagare sulla proprietà intellettuale dei contenuti e sui diritti contrattuali che il fornitore del servizio di IA si riserva in ragione del fatto che è stato utilizzato il proprio servizio di IA.
Come funziona l’architettura contrattuale di Chat-GPT
Partiamo da come funziona l’architettura contrattuale di ChatGPT.
Notiamo anzitutto che non vi sono termini e condizioni specifici per il solo servizio. Il servizio è coperto dalle condizioni generali relative ai servizi dello sviluppatore OpenAI. Oltre a queste sono presenti ulteriori specifici documenti contrattuali: nella specie, i “Service Terms”, la “Sharing & publication policy”, la “Usage policy” , oltre ovviamente alla “Privacy Policy”. Questi termini e condizioni si applicano sia all’uso come utente finale, sia all’uso in forma di API, ma in essi sussistono distinzioni importanti nelle disposizioni che regolano l’uno o l’altro caso.
I termini di servizio sopra illustrati definiscono “Content”, nel complesso, tutto quel che inserisce l’utente (“Input”) e tutto quel che risulta come risposta all’Input (“Output”).
Si occupano, inoltre, di definire i diritti sui Content e non si può non notare che i diritti sull’Input sono diversi dai diritti sull’output.
Infatti, riguardo all’Input viene chiaramente affermato che la proprietà è dell’utente (e ci mancherebbe) anche se – come d’altra parte ha rilevato il Garante privacy – nel caso di utilizzo del servizio come utente finale, i dati, personali e non, vengono utilizzati per addestramento del modello di AI.
Ora, già su questo punto occorre fare una prima considerazione: per inserire qualcosa in ChatGPT occorre avere i diritti di utilizzare quel contenuto, deve essere un contenuto “proprio”. E’ vietato dunque far esaminare a ChatGPT contenuti di terzi, sui quali non sussista il diritto di fornirle ad OpenAI, perché verranno utilizzati per addestramento.
Chatgpt e AI, regolamentare la responsabilità o l’efficienza è la prossima sfida
Il diritto sui contenuti generati
Ma il vero punto d’attenzione è sul diverso diritto che le condizioni prevedono per quanto riguarda l’output, il contenuto frutto del lavoro dell’AI generativa.
Mentre, come abbiamo detto, per quanto riguarda l’Input, le condizioni prevedono – chiaramente e senza giri di parole – che l’Input appartiene all’utente che lo inserisce, per quanto riguarda la titolarità dell’Output viene previsto qualcosa di diverso. Apparentemente non ci sono pretese di OpenAI sull’output, ma, se ci pensa meglio, questo potrebbe non essere vero: le condizioni affermano che OpenAI “concede all’utente ogni suo titolo e diritto riguardante l’output” ma ciò solamente “condizionato all’adempimento ai presenti termini e condizioni”.
Dunque il diritto sui contenuti generati non viene concesso a titolo definitivo. Il “bravo” utente che rispetta le condizioni d’uso del sistema si vede concesso il diritto ma, come è logico e inevitabile nelle concessioni sotto condizione, se emergesse, in qualunque momento futuro, che l’utente non ha rispettato le condizioni o il contratto venisse terminato o modificato da OpenAI (che si riserva di modificarlo in ogni momento) è possibile che questa concessione venga revocata. OpenAI potrebbe rientrare in possesso dei diritti concessi su quanto è stato generato utilizzando in tutto o in parte il proprio servizio.
Questi aspetti devono essere attentamente valutati da chi basa un proprio servizio sulla tecnologia di OpenAI. Normalmente, sia nei contratti del settore information technology che in occasione dei processi di due diligence che sono propedeutici all’investimento in una startup, uno degli aspetti che viene più attentamente valutato è che non sussistano diritti di terzi, anche potenziali, sugli asset immateriali che vengono ceduti. In questo caso occorrerebbe spiegare al terzo acquirente che i contenuti che vengono consegnati rimangono soggetti alle condizioni di OpenAI e che dunque li dovrà usare solo e soltanto attenendosi a quel che prevedono tali condizioni e che esiste una possibilità, se pur teorica, che il diritto d’uso venga revocato.
Di fatto, un diritto di terzi, continua a esistere, perché la concessione rimane sempre soggetta alle condizioni poste dal contratto.
Cosa vuol dire rispettare le condizioni d’uso di OpenAI
Ma quali sono queste condizioni? Cosa vuol dire rispettare le condizioni d’uso di OpenAI per l’utente diretto o il terzo che usa indirettamente il sistema attraverso le API di altri servizi?
Anzitutto quella, già citata di non consentire di fornire come Input materiale sul quale non si abbia il diritto di cedere ad OpenAI i dati – personali e non – per l’addestramento del sistema. Al riguardo va detto che una modifica delle condizioni intervenuta a marzo 2023 prevede che, per il solo uso di Chat-GPT attraverso API, il sistema non utilizzerà i dati di Input (sempre personali e non) per l’addestramento ma, invece, le condizioni specificano che in caso di uso diretto del servizio, i dati di Input saranno utilizzati per l’addestramento dell’AI per 30 giorni. Peraltro, non è prevedibile cosa comporti l’uso del dato per l’addestramento: è infatti in teoria possibile che il sistema, recepito il dato di addestramento, risponda a input di terzi utilizzando elementi che ha avuto come Input, inclusi dati soggetti a proprietà intellettuale o dati personali.
In particolare, gli utenti che volessero pubblicare o condividere un contenuto del quale – dicono le condizioni d’uso – sono “coautori” (co-authored) assieme alle API di OpenAI (ad esempio un libro o un articolo, ma anche un parere legale di un avvocato), devono attenersi a ulteriori condizioni:
- in primo luogo pubblicarlo esclusivamente a proprio nome,
- in secondo luogo rivelare a chi ne fruisce in maniera chiara che il contenuto è stato realizzato utilizzando le API di OpenAI
- inoltre, evitare che il contenuto risulti offensivo o riguardi campagne politiche o sia incitamento all’odio o sia inadatto ai minori.
- Occorre infine che l’utente si assuma la piena responsabilità di quanto pubblicato.
Se, dunque, ad esempio, un utente delle API di OpenAI, ad esempio una startup che le utilizza, pubblicasse contenuti senza avvisare i fruitori dei medesimi che essi sono stati in parte generati con OpenAI, perderebbe il diritto di utilizzarli.
Usi vietati dei servizi di OpenAI
E’ inoltre degno di nota che ci sono degli usi vietati dei servizi di OpenAI. Anche qui l’uso in violazione, comporterebbe la perdita del diritto di usare i contenuti. Ad esempio, è vietato – come si è detto – utilizzarli per campagne politiche, ma anche per ragioni di diagnostica di disturbi di salute, per la prevenzione del crimine e per la giustizia penale, per il riconoscimento facciale, per usi di multi-level marketing, gioco d’azzardo, per usi di erotismo o pornografia, per la valutazione del merito creditizio, per la selezione del personale, per determinare il diritto di accedere a formazione o a assistenza pubblica di ogni tipo.
E’ inoltre vietato utilizzarli, se non si è un professionista abilitato per tale tipo di consulenza, per offrire qualsiasi tipo di assistenza legale. E’ inoltre vietato utilizzarli per quello che viene definito “academic dishonesty“, che sembra indicare il comporre scritti e tesi in campo accademico senza attribuirli a Chat-GPT e per ogni sorta di attività di plagio, disinformazione o spam. E’ infine vietato utilizzarli per sviluppare armi, usi militari, generare malware, per la gestione di infrastrutture critiche in campo energetico, dei trasporti o idrico o per qualsiasi uso in violazione dei dati personali.
E’ anche molto interessante che sia vietato usare il sistema, attraverso API e plug-in, per simulare la risposta di un umano a una chat. Chi entra in una chat con il sistema deve essere messo a conoscenza che sta interagendo con Chat-GPT e che le risposte sono generate da intelligenza artificiale.
Conclusioni
Come si è detto, si tratta di una policy dichiaratamente suscettibile di essere ampliata e cambiare da un momento all’altro.
Occorre quindi una particolare consapevolezza nello sviluppare modelli di business basati su tali tecnologie e diviene fondamentale la previa valutazione del caso d’uso anche dal punto di vista legale.
*L’analisi che viene svolta nel presente articolo è la sintesi di un mio saggio più ampio, in uscita sul prossimo numero della rivista Il Diritto di Internet diretta da Giuseppe Cassano (Pacini). Si rimandano a tale sede i lettori che intendessero approfondire il tema