Da qualche tempo a questa parte hanno cominciato a circolare brani musicali realizzati dall’intelligenza artificiale, che non solo riprendono lo stile di uno specifico cantante, ma addirittura ne imitano la voce e/o ne usano l’immagine, come la canzone “Heart on My Sleeve”, che sembrava l’ultima opera del cantante Drake, e si è poi rivelata essere un falso.
La reazione delle case discografiche
Le case discografiche hanno cominciato a chiedere la rimozione dalle piattaforme di questo tipo di brani musicali, facendo leva sulla violazione dei diritti d’autore di loro titolarità: così Universal Music Group ha recentemente richiesto a Spotify di rimuovere migliaia di canzoni prodotte con l’intelligenza artificiale dagli utenti di una startup californiana (Boomy) il cui sistema permetteva di utilizzare campionature di brani musicali protetti per realizzare nuove opere. Sia la campionatura delle canzoni, sia l’utilizzo dei campioni così ottenuti, non erano stati autorizzati dagli aventi diritto. In aggiunta, nel caso specifico UMG ha anche osservato che sulla piattaforma Spotify venivano utilizzati BOT che realizzavano picchi artificiali di ascolto sulle canzoni realizzate dall’AI di Boomy, il che ha attirato l’attenzione su di un ulteriore preoccupante fenomeno di distorsione, che potrebbe avere serie ricadute sulla valutazione del reale successo di un’opera musicale, e falsare pesantemente i ricavi che da questa possono essere generati.
L’allarme nel mondo dell’industria culturale
La rapida affermazione dell’AI come strumento a disposizione di utenti generici sta creando forte allarme nel mondo dell’industria culturale. Mentre fino a tempi recenti la discussione sull’AI ed i diritti di proprietà intellettuale, che pure esisteva, era prevalentemente accademica e riguardava l’opportunità di qualificare il ruolo dell’AI all’interno del processo di creazione di un’opera dell’ingegno, per poi determinare se quest’opera potesse o meno venire protetta dal diritto d’autore, più recentemente ci si è resi conto che i problemi sono molto maggiori di questi, e vanno dalla questione della trasparenza (in particolare, come determinare se un’opera sia il prodotto di un’AI oppure sia creata da un essere umano), all’impatto sul sistema del diritto d’autore di sistemi di AI che non solo sono in grado di realizzare nuove opere musicali, ma possono anche riprodurre in modo fedele la voce e l’immagine di un artista, al punto da rendere il brano musicale dell’AI sostanzialmente indistinguibile da quelli originali, anche sotto il profilo della performance.
Proteggibilità delle opere realizzate dall’AI
Si è già parlato qui della proteggibilità o meno delle opere realizzate dall’AI, per chiarire che, secondo le tendenze al momento prevalenti, non è possibile riconoscere la tutela del diritto d’autore ad un’opera dell’ingegno, quando questa sia interamente realizzata dall’AI, senza l’intervento di un essere umano. In questo senso è emblematica la recente decisione dell’Ufficio Copyright Statunitense, che il 25 febbraio 2023 ha negato la registrazione – e quindi la protezione – di diritto d’autore ad alcuni disegni realizzati tramite il sistema di AI Midjourney, poiché l’interazione fra l’utente e quest’ultimo sistema fa sì che i risultati siano generati in modo casuale e randomico dal sistema, con la conseguenza che l’utente non può essere considerato autore ai sensi delle norme sul copyright, non essendo colui che forma effettivamente le immagini ed ha il controllo del processo creativo.
Può tuttavia ancora ricevere protezione dalla legge l’autore che utilizzi un’AI come mero strumento di ausilio alla creazione, in modo tale che il risultato delle attività sia controllato dall’autore stesso per tutto il corso del processo creativo e non vi sia un consistente margine di imprevedibilità nell’applicazione degli algoritmi.
La discussione sulla proteggibilità o meno dei risultati dell’AI ha finora riguardato prevalentemente la questione della preminenza o meno dell’essere umano nel contesto della produzione di opere immateriali, e sembra attualmente dirigersi verso la conferma che i diritti esclusivi di proprietà intellettuale debbano essere riconosciuti alle persone fisiche soltanto, come risultato della loro attività creativa, escludendo invece l’applicabilità – almeno al momento – di forme di protezione dell’investimento, che pure sono ben conosciute nel nostro ordinamento ed in quelli europei/internazionali. Basti pensare ai diritti connessi al diritto d’autore – che sono pur sempre di natura esclusiva – riconosciuti al produttore fonografico per l’investimento sulla produzione della fissazione, o a quelli sui generis attribuiti al costitutore di una banca di dati non creativa, in relazione all’investimento in tempo, denaro o comunque risorse per definizione non creative nell’attività di costituzione della banca di dati.
Uso di opere protette o di loro parti per il training dei modelli generativi
Oggi è emerso tuttavia un tema forse ancora più impellente, legato alla utilizzazione da parte dell’AI di opere protette o di loro parti per il training dei modelli generativi, ed alla potenziale violazione da parte di queste operazioni dei diritti d’autore su chi abbia realizzato le opere utilizzate per il training.
Una prima domanda, dunque, concerne la natura di queste operazioni, e quindi se esse siano vietate in quanto rientranti nel perimetro dell’esclusiva autorale, oppure se invece essere possano essere consentite grazie all’applicazione di eccezioni all’applicazione del diritto d’autore, fra cui in particolare quelle di text & data mining, recentemente introdotte dalla direttiva 2019/790 dell’Unione Europea (e conseguentemente oggi presenti nei vari ordinamenti dei paesi membri, fra cui anche l’Italia).
Una seconda questione consiste nelle obbligazioni legate alla trasparenza, sia per quanto concerne la necessità o meno di informare gli utenti che un determinato bene è generato dall’AI (e non da un essere umano), sia per quanto riguarda la possibilità di richiedere ai fornitori di sistemi di AI di rendere pubblicamente disponibile una sintesi che indichi l’uso di dati di addestramento protetti dalla legge sul diritto d’autore.
Le eccezioni
Le eccezioni più rilevanti nel settore dell’AI previste dalla direttiva 2019/790 sono contenute negli artt. 3 e 4, con riguardo rispettivamente all’estrazione di testo e di dati per scopi di ricerca scientifica ed all’estrazione per altri fini, definibili in senso lato come commerciali. Concentrandosi su questo secondo tipo di eccezione, la direttiva prevede che gli Stati membri debbano prevedere un’eccezione o una limitazione ad alcuni diritti esclusivi (come i diritti d’autore e sui generis sull’uso di banche di dati, il diritto di riproduzione delle opere dell’ingegno, il diritto di riproduzione ed elaborazione di programmi per elaboratore, il nuovo diritto a compenso degli editori di pubblicazioni giornalistiche), per quanto concerne le riproduzioni e le estrazioni effettuate da opere o altri materiali a cui si abbia legalmente accesso ai fini dell’estrazione di testo e di dati. Questa eccezione è tuttavia condizionata al mancato esercizio da parte dei titolari dei diritti del cosiddetto opt-out, che consiste in una riserva espressa, diretta ad escludere l’utilizzo delle opere ai fini ora detti.
L’opt-out deve essere effettuato modo appropriato, ad esempio attraverso strumenti che consentano la lettura automatizzata in caso di contenuti resi pubblicamente disponibili online. In questo scenario –pur rimanendo ancora discusso l’effettivo perimetro dell’eccezione con riguardo alle attività consentite – l’uso delle opere protette o di loro parti ai fini del training dell’AI sarebbe in linea di principio consentito, senza richiedere un previo consenso dei titolari dei diritti, a condizione che non sia stato esercitato l’opt-out. Ricade quindi sui titolari dei diritti l’onere di dimostrare che le opere di loro titolarità sono oggetto di opt-out, e che l’opt-out è stato realizzato in modo appropriato. Un’ulteriore difficoltà consiste nella individuazione dell’uso delle opere protette da parte dei sistemi AI: in assenza di un principio di trasparenza, e di un rigoroso rispetto dello stesso, per i titolari dei diritti d’autore potrebbe essere impossibile sapere se un determinato sistema di AI abbia effettivamente utilizzato le loro opere.
Possibili modifiche all’AI Act
Per questa ragione si sta attualmente discutendo di modifiche alla proposta di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale del 21 aprile 2021, regole che sembrerebbero riguardare proprio l’introduzione di stringenti obblighi di trasparenza. Più in particolare, vi sarebbe un primo obbligo di informazione nei confronti del pubblico, in base al quale chi realizzi sistemi di AI destinati a interagire con persone fisiche deve accertarsi che tali sistemi siano progettati e sviluppati in modo da informare la persona fisica esposta al sistema di AI che essa sta interagendo con questo sistema, in modo tempestivo, chiaro e comprensibile, a meno che ciò non sia ovvio dalle circostanze e dal contesto di utilizzo. Inoltre, i fornitori di modelli generativi di AI dovrebbero documentare e rendere disponibile al pubblico una sintesi dell’uso dei dati di addestramento protetti dalla legge sul diritto d’autore.
Non è allo stato ben chiara l’effettiva portata di questi obblighi informativi, soprattutto per quanto riguarda il livello di dettaglio dei dati riguardanti le opere utilizzate nell’addestramento, anche in considerazione della circostanza che le fonti di reperimento potrebbero non disporre di informazioni adeguate. In aggiunta agli obblighi di trasparenza, si prevede anche che i fornitori di modelli di AI debbano “progettare e sviluppare il modello di fondazione in modo da garantire adeguate garanzie contro la generazione di contenuti in violazione del diritto dell’Unione, in linea con lo stato dell’arte generalmente riconosciuto e senza pregiudicare i diritti fondamentali, compresa la libertà di espressione”; e che questi fornitori debbano assistere i soggetti a valle dei sistemi di AI nell’attuazione delle garanzie adeguate di cui al regolamento.
Ciò sostanzialmente significherebbe che i fornitori di sistemi di AI non possono disinteressarsi della natura degli output, e debbono quindi in particolare porre in essere adeguate misure che escludano o minimizzino il rischio di violazione dei diritti esclusivi da parte degli utilizzatori dei sistemi con riguardo agli output stessi.
Tutela dei diritti alla voce ed all’immagine degli artisti
Ai problemi connessi alle potenziali violazioni dei diritti d’autore vanno aggiunti quelli concernenti la tutela dei diritti alla voce ed all’immagine degli artisti. Si è visto infatti che l’ultima AI non solo può utilizzare brani musicali precedenti per realizzarne altri “in stile”, ma che è anche in grado di simulare voce ed immagine di performer famosi, al punto da indurre a credere che si tratti di nuovi clip originali degli stessi. La voce e l’immagine delle persone sono tuttavia dati protetti, sia quali diritti distintivi della personalità, sia quali dati personali ai sensi delle regole in materia di privacy. Essi potrebbero inoltre diventare veri e propri marchi, ove utilizzati in modo distintivo ovvero registrati presso i competenti uffici.
Le norme di riferimento sono anzitutto gli artt. 6-10 del codice civile, e 96/97 della legge sul diritto d’autore, che tutelano i diritti di una persona al nome, all’immagine e all’identità personale, quale espressione dell’individuo e suo diritto fondamentale, anche costituzionalmente protetto (art. 2 Cost.). Chiunque ha quindi il diritto di vietare o autorizzare lo sfruttamento del suo nome, della sua immagine e della sua identità. La giurisprudenza ha esteso la nozione ai cosiddetti “elementi evocativi della personalità o dell’attività di un artista”, quali – ad esempio – la riproduzione stilizzata di accessori di abbigliamento comunemente riconducibili alla figura di un noto attore italiano (caso “Totò” – Suprema Corte 97/2223), o l’utilizzo in una campagna promozionale di uno zucchetto copricapo di lana a maglia grossa e di un paio di occhiali con binocolo come identificazione di un noto interprete (caso “Lucio Dalla” – Circoscrizione Tribunale di Roma 18/04/1984), o ancora la voce e il caratteristico timbro vocale di un cantante (caso “Branduardi” – Tribunale di Roma 05/12/1993).
Si tratta poi anche di dati personali, ai sensi dell’art. 4 del GDPR, che definisce come dato personale “[..] qualsiasi informazione relativa a una persona fisica identificata o identificabile (“interessato”); una persona fisica identificabile è colui che può essere identificato, direttamente o indirettamente, con particolare riferimento a un dato identificativo come un nome, un numero di identificazione, dati relativi all’ubicazione, un identificativo online o uno o più elementi caratteristici della sua identità fisica, fisiologica, genetica, psichica, economica, culturale o sociale[…]”.
Il GDPR specifica anche che l’immagine può rientrare nelle categorie più stringenti dei “dati biometrici”, nella misura in cui, sottoposta ad uno specifico trattamento tecnico, è potenzialmente in grado di consentire o confermare l’identificazione univoca del soggetto cui appartiene. Lo stesso potrebbe applicarsi alla voce.
Sia le norme generali del codice civile, sia la normativa in materia di trattamento dei dati personali richiedono un consenso espresso del titolare dei diritti che sia precedente all’utilizzazione dei segni distintivi della personalità. Il GDPR specifica che il consenso debba essere esplicito ed informato, ovvero avvenire mediante un atto positivo inequivocabile con il quale l’interessato esprime un consenso libero, specifico, informato ed inequivocabile.
Lo scenario è quindi maggiormente protettivo rispetto a quello sopra analizzato con riferimento ai diritti d’autore: ci si trova infatti di fronte a diritti esclusivi, che non prevedono alcuna specifica eccezione, salvo quella generale dell’artt. 96 e 97 della legge sul diritto d’autore, secondo cui i diritti in questione possono essere sacrificati solo se prevale l’interesse generale all’informazione, in caso di notorietà della persona ritratta e per la pubblicità della situazione in cui la persona è coinvolta. Questo diritto di veto può essere esercitato direttamente dalla persona fisica coinvolta (il performer) ovvero anche da un suo rappresentante o cessionario, che potrebbe essere l’industria culturale a cui il diritto sia stato licenziato, ovvero anche un altro soggetto (come ad esempio una collecting). Benché infatti si tratti di diritti a contenuto anche morale, essi possono essere oggetto di atti di circolazione a favore di terzi, fermo restando il diritto inalienabile della persona fisica interessata a revocare il proprio consenso, perlomeno in determinati casi.
Conclusioni
L’excursus che precede chiarisce dunque che:
- le opere realizzate interamente dall’AI non sono proteggibili dal diritto d’autore;
- l’AI viola i diritti d’autore se utilizza opere dell’ingegno protette, o loro parti, quando non si possa applicare l’eccezione di text & data mining e quindi in particolare quando i titolari dei diritti abbiano esercitato l’opt-out;
- l’AI viola anche i diritti della personalità dei performer se mima voce o immagini degli stessi senza il loro previo consenso;
- è incerto come fare in modo che l’AI e i suoi output siano effettivamente riconoscibili, così come verificare che una determinata AI abbia fatto uso di opere protette in violazione delle norme dell’ordinamento.
Si tratta di un contesto ancora molto problematico dal punto di vista pratico e legale, cui si aggiunge un ulteriore quesito, ossia se – nonostante ogni sforzo di protezione dei diritti d’autore e della personalità – non esista in ultima istanza un rischio di “sparizione” delle opere protette dal diritto d’autore e dello stesso sistema autorale.
Benchè infatti in una prima fase sia possibile immaginare che i titolari di diritti su opere preesistenti facciano valere il proprio potere di veto, e riescano in tal modo a preservare una posizione di mercato, in un prossimo futuro potrebbe verificarsi una situazione in cui sistemi (legittimi) di AI competano sul mercato con l’industria culturale. È già ora evidente che l’AI e i suoi output possono essere messi a disposizione dell’utenza a costi decisamente inferiori rispetto a quelli tipici dell’industria culturale tradizionale, proprio perché risparmiano sull’intervento degli esseri umani, autori e artisti. Nella competizione potrebbe prevalere l’AI, rendendo residuali i casi in cui sia ancora possibile accedere al mercato per un essere umano che crea secondo i più costosi metodi tradizionali.
In questo contesto è necessario allora chiedersi se potrebbe veramente bastare applicare regole sulla trasparenza, o se potrebbe invece essere necessario fare scelte di politica del diritto più radicali, magari dirette a compensare il divario competitivo che potrebbe verificarsi fra AI ed esseri umani (e sempre che ciò sia ancora fattibile, cosa che potrebbe essere revocata in dubbio).