intelligenza artificiale

IA e diritto d’autore: i punti chiave del DDL Butti



Indirizzo copiato

Il disegno di legge in materia di intelligenza artificiale presentato dall’onorevole Alessio Butti affronta la questione del diritto d’autore nell’era dell’IA, ponendo al centro del dibattito temi come la tutela dei minori, i deepfake e la questione del fair use

Pubblicato il 23 apr 2024

Luciano Daffarra

C-Lex Studio Legale



copyright fotografia risarcimento

Il disegno di legge a firma di Alessio Butti, recante: “Norme di principio in materia di intelligenza artificiale” previsto oggi al consiglio dei ministri si suddivide in cinque capi, per un totale di 25 articoli che vanno a toccare i punti nodali della materia.

In tema di diritto d’autore, il DDL pone al centro del dibattito la necessità di tutelare i minori e il pubblico generale da fenomeni preoccupanti come i deepfake, e il bisogno di ridefinire i limiti alla riproduzione e all’estrazione delle opere in un contesto sempre più digitale

La tutela del diritto d’autore del DDL sull’intelligenza artificiale

Dovendosi sin da ora precisare che ci troviamo di fronte a un testo che necessita di affinamento per lo scopo di discussione e approfondimento a livello politico che il progetto normativo si prefigge, vi sono alcuni aspetti riguardanti la tutela del diritto d’autore che meritano di attenzione e che vengono qui brevemente considerati.

Infatti, le disposizioni del testo in esame che vengono affrontate in questa sede sono quelle che toccano le questioni dei diritti degli autori e i relativi diritti connessi: esse sono contenute agli articoli 23 e 24 dell’elaborato, che recano rispettivamente il titolo: “Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale” e “Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale”.

La disciplina dei deepfake

Si tratta di previsioni che mirano a regolare un’ampia casistica relativa all’impiego degli algoritmi di intelligenza artificiale. Il proponente del disegno di legge intende collocare in seno al D.lgs. 208/2021 di attuazione della Direttiva UE/2018/1808 sui media audiovisivi, attraverso un art. 40-bis, la disciplina del fenomeno dei cosiddetti “deepfake”, cioè i contenuti audiovisivi che presentano come reali materiali o altri file che riproducono suoni voci e immagini in movimento generati, modificati o alterati attraverso l’utilizzazione di sistemi di intelligenza artificiale[2].

L’intento del dettame di legge è quello di fare sì che i fornitori di media audiovisivi, a condizione che abbiano ottenuto il previo consenso dei titolari dei diritti sui contenuti utilizzati per realizzare i deepfake messi a disposizione del pubblico, debbano indicare con chiarezza sui mezzi trasmissivi che si tratta del risultato di un’operazione di modifica o di trasformazione dei contenuti originali. Ciò dovrà essere fatto attraverso l’inserimento a corredo degli stessi contenuti modificati attraverso l’uso dell’intelligenza artificiale di un elemento o di un segno identificativo che li renda riconoscibili come tali da parte degli utenti.

Un emanando regolamento dell’Agcom. dovrà precisare i contorni della norma, al momento della sua attuazione. Un nuovo art. 612-quater del Codice penale, introdotto nel DDL Butti, propone di punire con la reclusione, il nocumento causato alle persone attraverso la diffusione dei deepfake originati con l’impiego dei sistemi di intelligenza artificiale. L’ipotesi di una punizione prevista in alternativa a quella stabilita per il reato commesso con il dolo specifico come conseguenza del semplice fatto dannoso, a prescindere dal dolo, non appare ragionevolmente accoglibile dal nostro ordinamento penale.

La tutela dei minori e del pubblico generale

La proposta di legge dell’on.le Alessio Butti, nell’affrontare il tema dei “deepfake” opera ulteriori emendamenti, in aggiunta a quelli sopra delineati, alle norme in vigore sugli AVMS nel testo del TUSMA, intervenendo sull’art. 42 del D.lgs. 208/2021[3] che concerne le misure di tutela dei minori e del pubblico in generale. Il DDL progetta un’integrazione al vigente comma 1, lett. c), inserendo di seguito una lett. c-bis). Quest’ultima disposizione include nell’ambito della protezione garantita al “grande pubblico”, già precedentemente prevista per differenti fattispecie, quella rivolta a difendere “il grande pubblico da contenuti anche audiovisivi generati, modificati o alterati, anche parzialmente, in qualsiasi forma e modo, attraverso l’utilizzo di sistemi di intelligenza artificiale al fine di manipolare in maniera non riconoscibile allo spettatore il contenuto delle informazioni”. Si tratta, quindi, di una norma che mira ad evitare l’informazione pilotata per ingannare il pubblico[4].

Viene altresì inserita, al comma 7 dell’art. 42, una lett. c-bis), il cui precetto vincola i fornitori di piattaforme di condivisione a fare sì che dette piattaforme digitali siano munite di “una funzionalità che consente agli utenti che caricano contenuti video generati dagli utenti di dichiarare se tali contenuti video contengono contenuti generati, modificati o alterati, anche parzialmente, in qualsiasi forma e modo, attraverso l’utilizzo di sistemi di intelligenza artificiale di cui sono a conoscenza o si possa ragionevolmente presumere che siano a conoscenza”.

Andrà valutato in sede di successivo esame parlamentare, se la facoltà concessa agli utenti di dichiarare o meno se il contenuto da loro immesso in rete su piattaforme digitali di condivisione possa costituire o meno un “deepfake”, sia opportuno conservare la natura non obbligatoria della norma nei confronti degli utenti di tali media, anche in considerazione della particolare dipendenza cui sono di frequente soggiogati gli utilizzatori dei network di scambio di contenuti in rete.

La questione del fair use

Di maggiore criticità rispetto alla norma appena esaminata è il contenuto dell’art. 24 del disegno di legge di cui abbiamo sopra ricordato la rubrica, in quanto esso va ad incidere sull’assetto della L. 633/1941 e, in particolare, sulle c.d. “eccezioni e limitazioni” che fanno parte del sistema fondante delle norme sul diritto d’autore. Nell’ambito delle discussioni dottrinali e delle cause che coinvolgono l’impiego degli algoritmi di intelligenza artificiale dette eccezioni vengono sempre più frequentemente richiamate, facendo leva sulla dottrina statunitense del “fair use” che viene invocata sistematicamente da parte dei gestori degli apparati di intelligenza artificiale[5].

La tutela autoriale delle opere create con l’IA

Il proponente del progetto di legge ha voluto anzitutto stabilire che le opere create con l’uso degli algoritmi di intelligenza artificiale possano godere della tutela autorale delle opere di cui agli artt. 1 e 2 della nostra Legge Autore, a condizione che “il contributo umano nell’ideazione e realizzazione dell’opera tramite l’uso dell’algoritmo sia creativo, rilevante e dimostrabile”. Si tratta di una conferma di quanto finora è stato deciso dai tribunali statunitensi ed inglesi, anche in linea con le prime indicazioni della nostra Corte di cassazione[6]. Il tema risulta tuttora fortemente dibattuto, in quanto vi sono opinioni che mirano a escludere la tutela dell’opera creata dall’intelligenza artificiale in quanto essa non sarebbe capace di generare alcunché di autonomamente creativo[7].

Deve essere inoltre osservato che la norma proposta dall’on.le Butti, modificativa dell’art. 2 della L. 633/1941, aggiungendovi un n. 10), fa salvi i diritti sul programma per elaboratore che costituisce opera autonoma dell’ingegno umano, in quanto è attraverso un software che vengono sviluppati gli algoritmi di intelligenza artificiale, i quali, a loro volta generano contenuti fondati sulle banche di dati (C.d. “big data” necessari ad allenare e ad alimentare gli apparati fondanti di detti sistemi.

I limiti alla riproduzione e all’estrazione di opere

Giungiamo ora all’esame dell’aspetto più delicato del disegno di legge Butti: quello contenuto nella norma di cui all’art. 24 del DDL che introduce un art. 70-septies nella Legge Autore, nel contesto delle c.d. “libere utilizzazioni”[8].

Il proponente ipotizza di regolare la riproduzione e l’estrazione di opere o di altri materiali tutelati, attraverso modelli o sistemi di intelligenza artificiale anche generativa, sulla base degli artt. 70-ter e 70-quater della stessa legge autore[9].

Va in primo luogo notato che il richiamo alle norme sopra ricordate, essendo ciascuna di esse rivolta a soggetti non omogenei, ma ben distinti fra loro – cioè gli organismi di ricerca e gli istituti di tutela del patrimonio culturale da un lato e tutti gli altri utenti anche privati, dall’altro – dovrebbe essere tenuto distinto nel testo del precetto normativo.

Va infatti subito detto che i sistemi di intelligenza artificiale appartengono, attualmente e nella gran parte dei casi, a imprese che operano a scopo di lucro, tanto da doversi ritenere marginale, per ora, il caso di effettiva e non mascherata attività di acquisizione di dati da parte dei “foundation models” di intelligenza artificiale sviluppati da “organismi di ricerca e da istituti di tutela del patrimonio culturale, per scopi di ricerca scientifica, ai fini dell’estrazione di testo e di dati da opere o da altri materiali disponibili in reti o banche di dati cui essi hanno lecitamente accesso”.

Di conseguenza, pur dovendosi riconoscere che l’ipotesi di sistemi di intelligenza artificiale gestiti dal settore della ricerca e della tutela del patrimonio, in essi inclusi gli impieghi che il DDL ravvisa ed indica nell’ambito sanitario, in quello del lavoro, sono ipotesi che certamente giustificano il richiamo all’eccezione di cui all’art. 70-ter LDA.

L’impiego dell’intelligenza artificiale nell’attività giudiziaria

Per quanto concerne la componente della ricerca industriale è venuta per ora meno la creazione della “Fondazione per la ricerca industriale per il trasferimento tecnologico, la sperimentazione, lo sviluppo e l’adozione di sistemi di intelligenza artificiale”.

Ad avviso di chi scrive, in senso contrario, non si può desumere che tutte le opzioni sopra delineate e tantomeno i progetti realizzati da soggetti privati, possano usufruire della libera accessibilità e utilizzazione dei dati che fanno parte molto di frequente della proprietà intellettuale dei titolari dei diritti, anche nell’ambito della ricerca medica, scientifica o del lavoro cui la norma si riferisce.

Avuto riguardo, invece, all’art. 70-quater della L. 633/1941, va osservato che la disposizione di legge pone delle chiare condizioni alle estrazioni dei dati che potrebbero essere oggetto di utilizzazione da parte dei sistemi di intelligenza artificiale. La norma consente, infatti, che siano permesse le “riproduzioni e le estrazioni da opere o da altri materiali contenuti in reti o in banche di dati cui si ha legittimamente accesso ai fini dell’estrazione di testo e di dati”.

Il concetto giuridico di “legittimo accesso”

Il concetto giuridico di “legittimo accesso” presuppone che il soggetto giuridico che effettua l’attività di raccolta dei dati utili al funzionamento dei “foundation models” di IA, sia in un rapporto di collegamento e non di alterità rispetto alla fonte da cui quello intende trarre i contenuti, con l’ulteriore precisazione che: “L’estrazione di testo e di dati è consentita quando l’utilizzo delle opere e degli altri materiali non è stato espressamente riservato dai titolari del diritto d’autore e dei diritti connessi nonché dai titolari delle banche dati”. Tale inciso consacra il diritto al cosiddetto “opt-out che ciascun titolare dei diritti ha sui contenuti di cui detiene i diritti esclusivi in base all’art. 4, comma 3 della Direttiva UE/790/2019 sul “Digital Single Market”. La disposizione consente in tal senso che i titolari dei diritti possano riservarsi, con appropriati mezzi, l’esclusiva sui materiali di loro spettanza “anche quando essi siano resi pubblicamente disponibili on-line.”

Il limite temporale alle estrazioni e riproduzioni da parte dei terzi

Va poi soggiunto che vi è un limite temporale alle estrazioni e riproduzioni da parte dei terzi, in funzione del tempo effettivamente necessario a tali operazioni, stabilito dal comma 2 dell’art. 70-quater LDA, concetto questo non sempre appare compatibile con lo sfruttamento del materiale protetto per svolgere i test e per consentire il successivo funzionamento degli apparati di intelligenza artificiale.

Quindi, pur dato atto che l’art. 70-sexies, di nuova formulazione, chiarisce che “i modelli e i sistemi di intelligenza artificiale che riproducono ed estraggono opere o altri materiali ai sensi dell’articolo 70-quater ricorrono alle misure non eccedenti quanto necessario allo scopo per assicurare l’identificazione delle opere e degli altri materiali il cui utilizzo non sia espressamente riservato dai titolari del diritto d’autore e dei diritti connessi nonché dai titolari delle banche dati”, facendo anche salva l‘indicazione dei nomi dei loro autori/produttori, “ove possibile”, tale disposizione si presenta come troppo ampia rispetto al volere della normativa vigente in materia di estrazione e riproduzione di dati.

La tutela penale delle violazioni attuate tramite IA

Infine, sul piano della tutela penale delle violazioni attuate attraverso l’impiego degli apparati di IA, il DDL Butti, nell’avere ipotizzato che esse vengano sanzionate in base all’art. 171 della Legge 633/1941, invece che alla stregua dell’art. 171-ter, ci fa supporre che il richiamo a una norma che ha, di fatto, depenalizzato le violazioni di minore rilievo, possa costituire un pericoloso giudizio di valore circa la lesione degli interessi tutelati, come quello leso da chi contravviene al divieto di “riprodurre e di estrarre opere o altri materiali ai sensi degli articoli 70-ter e 70-quater, attraverso sistemi e modelli di intelligenza at1ificiale, in violazione della legge italiana”.

Note


[1] Qui si trova copia della bozza in argomento: https://www.diritto.it/intelligenza-artificiale-bozza-disegno-legge-italia/

[2] La definizione di deepfake offerta dal motore di ricerca di Google è la seguente: “I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce”.

[3] L’art. 42 del D.lgs. 208/2021 reca il titolo: “Misure di tutela”, ed è rinvenibile qui: https://def.finanze.it/DocTribFrontend/getAttoNormativoDetail.do?ACTION=getArticolo&id={C0E4E87D-99E1-4ED3-BAA7-EBEAA2207785}&codiceOrdinamento=200004200000000&articolo=Articolo%2042

[4] Su questo tema si legga il seguente brano: https://www.cybersecurity360.it/nuove-minacce/lia-sta-cambiando-il-gioco-della-disinformazione-e-della-propaganda-ecco-come/

[5] Si può leggere sul tema il seguente contributo: https://www.agendadigitale.eu/mercati-digitali/le-opere-creative-dellia-gli-esiti-del-confronto-fra-copyright-e-diritto-dautore/

[6] Questo argomento è stato affrontato in questo articolo: https://www.agendadigitale.eu/mercati-digitali/copyright-negato-alle-opere-dellia-ma-la-sentenza-della-corte-usa-non-chiude-la-questione/

[7] Questo brano offre spunti per approfondire l’argomento: https://www.agendadigitale.eu/mercati-digitali/le-opere-creative-dellia-gli-esiti-del-confronto-fra-copyright-e-diritto-dautore/

[8] Qualche spunto sull’argomento è rinvenibile qui: https://www.agendadigitale.eu/mercati-digitali/le-eccezioni-a-scopo-didattico-al-diritto-dautore-cosa-prevedono-le-leggi-europee-e-italiane/

[9] Art. 70-ter

1. Sono consentite le riproduzioni compiute da organismi di ricerca e da istituti di tutela del patrimonio culturale, per scopi di ricerca scientifica, ai fini dell’estrazione di testo e di dati da opere o da altri materiali disponibili in reti o banche di dati cui essi hanno lecitamente accesso, nonché la comunicazione al pubblico degli esiti della ricerca ove espressi in nuove opere originali.

2. Ai fini della presente legge per estrazione di testo e di dati si intende qualsiasi tecnica automatizzata volta ad analizzare grandi quantità di testi, suoni, immagini, dati o metadati in formato digitale con lo scopo di generare informazioni, inclusi modelli, tendenze e correlazioni.

3. Ai fini della presente legge per istituti di tutela del patrimonio culturale si intendono le biblioteche, i musei, gli archivi, purché aperti al pubblico o accessibili al pubblico, inclusi quelli afferenti agli istituti di istruzione, agli organismi di ricerca e agli organismi di radiodiffusione pubblici, nonché gli istituti per la tutela del patrimonio cinematografico e sonoro e gli organismi di radiodiffusione pubblici.

4. Ai fini della presente legge, per organismi di ricerca si intendono le università, comprese le relative biblioteche, gli istituti di ricerca o qualsiasi altra entità il cui obiettivo primario è quello di condurre attività di ricerca scientifica o di svolgere attività didattiche che includano la ricerca scientifica, che alternativamente:

a) operino senza scopo di lucro o il cui statuto prevede il reinvestimento degli utili nelle attività di ricerca scientifica, anche in forma di partenariato pubblico-privato;

b) perseguano una finalità di interesse pubblico riconosciuta da uno Stato membro dell’Unione europea.

5. Non si considerano organismi di ricerca quelli sui quali è esercitata da imprese commerciali un’influenza determinante tale da consentire un accesso su base preferenziale ai risultati generati dalle attività di ricerca scientifica.

6. Le copie di opere o di altri materiali realizzate in conformità al comma 1 sono memorizzate con un adeguato livello di sicurezza e possono essere conservate e utilizzate unicamente per scopi di ricerca scientifica, inclusa la verifica dei risultati della ricerca.

7. I titolari dei diritti sono autorizzati ad applicare, in misura non eccedente a quanto necessario allo scopo, misure idonee a garantire la sicurezza e l’integrità delle reti e delle banche dati in cui sono ospitati le opere o gli altri materiali.

8. Le misure di cui ai commi 6 e 7 possono essere definite anche sulla base di accordi tra le associazioni dei titolari dei diritti, gli istituti di tutela del patrimonio culturale e gli organismi di ricerca.

9. Sono nulle le pattuizioni in contrasto con i commi 1, 6 e 7 del presente articolo.

Art. 70-quater

1. Fermo restando quanto previsto dall’articolo 70-ter, sono consentite le riproduzioni e le estrazioni da opere o da altri materiali contenuti in reti o in banche di dati cui si ha legittimamente accesso ai fini dell’estrazione di testo e di dati. L’estrazione di testo e di dati è consentita quando l’utilizzo delle opere e degli altri materiali non è stato espressamente riservato dai titolari del diritto d’autore e dei diritti connessi nonché dai titolari delle banche dati.

2. Le riproduzioni e le estrazioni eseguite ai sensi del comma 1 possono essere conservate solo per il tempo necessario ai fini dell’estrazione di testo e di dati.

3. Per lo svolgimento delle attività di cui al presente articolo sono in ogni caso garantiti livelli di sicurezza non inferiori a quelli definiti per lo svolgimento delle attività di cui all’articolo 70-ter.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3