Il diritto d’autore nasce con la creazione di un’opera, intesa come l’espressione di un’idea che rispecchia la personalità dell’autore e introduce elementi innovativi rispetto a ciò che è già stato prodotto.
Come conciliare l’innovazione tecnologica con la tutela dei diritti d’autore
Nel corso del tempo, la protezione offerta dal diritto d’autore si è evoluta, estendendosi non solo alle opere artistiche nel senso tradizionale, ma anche a elementi come arredamenti di interni, eventi sportivi, nomi, siti web, e, con l’avvento delle nuove tecnologie, agli NFT (Non Fungible Token). In ciascuno di questi casi, l’arte continua a essere una manifestazione diretta dell’artista (si pensi, ad esempio, al creatore di un NFT), ma quando l’opera è realizzata con strumenti digitali o è nativa digitale, si avverte l’esigenza di riconsiderare le modalità di tutela dei diritti legati all’espressione creativa. Questo tema si fa ancora più complesso quando l’opera d’arte è generata da algoritmi o programmi basati su intelligenza artificiale.
Con l’avvento dell’intelligenza artificiale e il suo crescente impiego in ambiti creativi, emerge anzi la questione cruciale di come conciliare l’innovazione tecnologica con la tutela dei diritti d’autore.
Le mosse legislative in Europa e in Italia
Raggiungere questo equilibrio è infatti fondamentale per garantire che gli autori possano beneficiare delle proprie opere senza ostacolare il progresso tecnologico. Il tema è al centro di un dibattito sempre più rilevante sia in Europa che in Italia: norme eccessivamente rigide potrebbero infatti frenare lo sviluppo delle tecnologie legate all’intelligenza artificiale, inducendo anche le imprese a spostare le attività di ricerca e sviluppo verso paesi con regolamentazioni più permissive. Al contempo, in assenza di una protezione adeguata, gli autori rischierebbero di perdere il controllo sulle proprie opere, ad esempio se venissero utilizzate da terzi senza alcun riconoscimento economico.
In questo scenario, hanno assunto particolare importanza sul piano legislativo l’AI Act, proposto dalla Commissione Europea, e il Disegno di Legge Butti.
L’AI Act europeo
L’Artificial Intelligence Act approvato il 13 marzo 2024 dalla Commissione europea ha lo scopo di armonizzare le regole relative all’intelligenza artificiale all’interno dell’Unione Europea. Il provvedimento ha istituito un quadro giuridico uniforme per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di AI, promuovendo la diffusione di un’intelligenza artificiale antropocentrica e affidabile, che garantisca un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali dell’Unione Europea.
Benché l’AI Act non si occupi direttamente della tutela del diritto di autore, l’introduzione di regole per l’uso responsabile dell’intelligenza artificiale, dell’obbligo di trasparenza per i sistemi di intelligenza artificiale e della necessità di tutelare i dati utilizzati nell’addestramento dei modelli, assume rilievo anche fini della prevenzione delle violazioni dei diritti d’autore attraverso un uso improprio dell’intelligenza artificiale.
Le quattro categorie di rischio dei sistemi di intelligenza artificiale
Occorre considerare che secondo le quattro categorie di rischio in cui l’AI Act classifica i sistemi di intelligenza artificiale, quelli utilizzati in ambito creativo possono essere considerati a rischio minimo, lasciando ampia libertà di scelta all’utilizzatore. In questo contesto, l’AI Act dedica particolare attenzione al fenomeno dell’addestramento dei modelli di IA: la generazione di nuovi contenuti si fonda sull’acquisizione – o meglio, sull’apprendimento – di grandi quantità di dati, siano essi testi, immagini o video, che possono essere coperti da diritti di proprietà intellettuale di terzi. A tutela di tali soggetti, l’AI Act agisce in una doppia direzione: da un lato, riconosce a chi vanta diritti sui contenuti di vietarne l’utilizzo ai fini dell’addestramento dei sistemi di intelligenza artificiale (cd. out-put); dall’altro lato, impone, in ottica di trasparenza, di rendere disponibile l’elenco dei contenuti utilizzati.
Il disegno di legge Butti in Italia
In Italia, il DDL Butti, presentato nel 2023 dal sottosegretario Alessio Butti ed approvato nell’aprile 2024, si inserisce nel solco delle iniziative nazionali per regolamentare l’impatto dell’intelligenza artificiale sulla base di quanto definito a livello comunitario.
Alla tutela del diritto d’autore viene dedicato il IV capo:
- attraverso una modifica dell’articolo 1 della Legge sul diritto d’autore, troverebbero tutela anche le opere generate con l’ausilio dell’intelligenza artificiale, purché il contributo umano sia creativo, rilevante e dimostrabile;
- attraverso l’introduzione del nuovo art. 70-septies della Legge sul diritto d’autore, verrebbe disciplinata l’estrazione di dati ai fini dell’apprendimento dei sistemi di intelligenza artificiale. Analogamente a quanto previsto dall’AI Act, i titolari di diritti sui contenuti potranno impedirne l’utilizzo. Per farlo, dovranno ricorrere a modalità comprensibili dalla macchina, in modo che automaticamente siano “bloccati”.
AI Act e DDL Butti a confronto
I due provvedimenti affrontano quindi il tema del rapporto tra diritto d’autore e intelligenza artificiale con modalità differenti. Come visto, per il DDL Butti l’uso di strumenti di intelligenza artificiale non può sostituire del tutto il valore dell’ingegno umano: affinché un’opera sia protetta, deve essere pur sempre presente un elemento umano che sia non solo creativo, ma anche rilevante e dimostrabile. Questo bilanciamento tutela chi sfrutta le potenzialità delle nuove tecnologie, ma non affronta il tema delle opere generate interamente tramite intelligenza artificiale né fornisce indicazioni chiare su come debba essere “dimostrata” la “rilevanza” e tantomeno se debba essere considerata in termini quantitativi o qualitativi. L’AI Act ha un approccio più generale, orientato a stabilire regole per un uso responsabile dell’intelligenza artificiale, con l’obiettivo di proteggere i diritti fondamentali. In questo senso, la possibilità di limitare l’utilizzo dei contenuti ai fini dell’apprendimento dei sistemi di IA generativa, se da un lato tutela gli autori, dall’altro rischia di contenere lo sviluppo dell’intelligenza artificiale.