Nel contesto sempre più complesso della regolamentazione dell’intelligenza artificiale, l’AI Act emerge come un punto di riferimento controverso. Non mancano, infatti, le pressioni, come quelle esercitate dalla Francia, che potrebbero mettere a rischio l’approvazione del Regolamento Ue.
Al centro delle discussioni rimane anche la questione dei diritti d’autore: una tematica che si intreccia con la trasparenza nella formazione sull’IA e con il crescente interesse verso le procedure di Text and Data Mining.
Il contesto dell’AI Act: tra accordo politico e riserve
L’unica cosa certa, al momento, è che i tempi sono strettissimi: dopo l’accordo politico raggiunto a dicembre, nei giorni scorsi si sono conclusi i meeting tecnici che hanno prodotto una bozza di testo finale che è stata sottoposta agli Stati membri da parte della presidenza di turno belga in vista del Coreper del 2 febbraio prossimo.
Ricordiamo che nei prossimi mesi i lavori si fermeranno in vista delle elezioni europee di giugno e il Parlamento deve ancora votare il testo nella sua redazione finale approvata anche dagli Stati membri.
AI Act: le pressioni della Francia
Tuttavia, nonostante i passi avanti sulla bozza di testo, il governo francese continua a mantenere una forte riserva contro il regolamento. La Francia, secondo le voci più accreditate, vorrebbe addirittura costruire una minoranza di blocco per fermare l’approvazione dell’AI Act. Su tale fronte il governo Macron aveva già raccolto in una prima fase, a novembre, il sostegno di Germania e Italia – poi sfilatesi in occasione del voto politico. Ora Macron è tornato alla carica, nonostante molte iniziative, anche il Francia, da parte degli stakeholder, per spingere il governo ad approvare il testo.
Diritto d’autore: i timori dell’industria dei contenuti
Per quanto attiene in particolare alle industrie dei contenuti questa iniziativa francese, con il rischio che riesca a individuare altri partner europei di primo piano, desta forte preoccupazione. Da una lettura della bozza di regolamento emersa nei giorni scorsi si sono evidenziati infatti notevoli passi avanti sugli aspetti di dettaglio in riferimento alla protezione dei diritti d’autore e connessi.
Vediamo come sono stati codificati gli aspetti più importanti per la protezione delle opere tutelate dal copyright.
Trasparenza nella formazione sull’IA
i fornitori di modelli di IA General-Purpose sono tenuti a rendere pubblicamente disponibili sintesi sufficientemente dettagliate dei contenuti utilizzati nella formazione sull’IA (art. 52c) per “facilitare le parti con interessi legittimi, compresi i titolari dei diritti d’autore, a esercitare e far valere i propri diritti ai sensi del diritto dell’Unione”.
Questo “obbligo di risultato” è incluso nella nuova formulazione del considerando 60k sulla sintesi dei contenuti utilizzati per addestrare i modelli di intelligenza artificiale.
Opt-out TDM/autorizzazione dei titolari dei diritti
Il considerando 60i fornisce un utile chiarimento sull’opt-out affermando che “[…] Laddove il diritto di opt-out sia stato espressamente riservato in modo appropriato, i fornitori di modelli GPAI devono ottenere un’autorizzazione dai titolari dei diritti se vogliono effettuare text e data mining sulle loro opere”.
Considerando sulla “giurisdizione”
Il considerando 60j chiarisce che qualsiasi fornitore che immette un modello di IA per scopi generali sul mercato dell’UE dovrebbe rispettare l’obbligo di trasparenza”, indipendentemente dalla giurisdizione in cui gli atti rilevanti per il diritto d’autore sono alla base della formazione di tali modelli di IA per scopi generali. I modelli di intelligenza artificiale hanno luogo”. Ciò è in linea con il ragionamento secondo cui “nessun fornitore dovrebbe essere in grado di ottenere un vantaggio competitivo nel mercato dell’UE applicando standard di copyright inferiori a quelli previsti nell’Unione”.
Modelli open source (art. 52c. -2)
Il testo prevede una deroga al Regolamento per i modelli di IA open source ma chiarisce che gli obblighi di copyright e trasparenza si applicano ancora a tali modelli.
Fase di ricerca (articolo 2, paragrafo 5 ter)
Il testo chiarisce che durante la fase di ricerca, sperimentazione e sviluppo è necessario rispettare il diritto applicabile dell’Unione, che comprende le norme dell’UE sul diritto d’autore, insieme all’eccezione TDM e al rispetto degli opt-out, ove applicabile.
È noto ormai anche a seguito dei vari contenziosi giudiziari come sia necessario definire un quadro regolatorio in Europa anche per favorire lo sviluppo dell’intero settore e di tutta la filiera. Le stesse imprese che producono contenuti hanno la necessità di disporre di una piattaforma di regole per l’utilizzo di applicazioni di AI generativa nel processo creativo.
Dalla Francia un assist alle grandi piattaforme Usa
La posizione della Francia, che sembra improntata alla tutela dei propri campioni nazionali come Mistral, che secondo quanto emerso potrebbe essere danneggiata da una regolamentazione che viene percepita come troppo stringente, in realtà sta fornendo un assist alle grandi piattaforme come OpenAI che hanno fatto una forte battaglia contro la regolamentazione.
AI ACT: la posizione dell’Italia
Perfino delle start up italiane hanno in realtà mostrato fiducia nella regolamentazione europee. Di recente, iGenius, un’impresa italiana che, con Cineca, è la prima vera AI generativa italiana, ha chiarito come consideri l’AI Act una opportunità. Il fondatore Sharka è molto chiaro quando afferma tra l’altro che il modello “Italia” è stato allenato su dati totalmente liberi da copyright e di qualità certificata, grazie non solo a Wikipedia ma anche alla rete di università che sono collegate a Cineca.
Questa testimonianza è importante anche per confermare come il nostro Paese abbia tutto l’interesse ad approvare l’AI act, e come questa norma, insieme al DMA sulla concorrenza, possa costituire una tutela per le start up italiane e non un freno.
Lo stesso sottosegretario all’Innovazione, Butti ha confermato di recente come sia necessario “disciplinare una tecnologia che altrimenti rischia di sfuggire di mano. Lo stanno facendo tutti, l’ha fatto l’Europa, gli Stati Uniti, lo dobbiamo fare anche noi, dobbiamo dare una disciplina che non significa limitare la tecnologia, ma renderla trasparente”. Pertanto il Governo italiano non può che approvare il testo dell’AI act il prossimo 2 febbraio realizzando queste aspettative.