Non sta assolutamente funzionando il tavolo annunciato pomposamente dalla Commissione EU e dall’ufficio per l’AI di Bruxelles il 30 settembre del 2024 con il coinvolgimento di oltre mille esperti.
L’ultima bozza, la terza, annunciata lo scorso 11 marzo, sembra aver peggiorato le cose, anche rispetto alle prime versioni. Il codice di buone pratiche (CoP) dovrebbe essere varato a maggio 2025.
Dopo la pubblicazione della bozza, le principali associazioni europee rappresentative dei settori creativi hanno espresso forti critiche ricordando che l’obiettivo fondamentale dell’AI Act è fornire ad autori, artisti e altri titolari di diritti strumenti per esercitare e far valere i propri diritti, imponendo ai fornitori di Intelligenza Artificiale a Scopo Generale (GPAI) l’obbligo di adottare misure conformi al diritto d’autore dell’UE e di fornire un riepilogo sufficientemente dettagliato dei contenuti utilizzati per l’addestramento.
Indice degli argomenti
Le preoccupazioni sul codice di condotta e il suo allontanamento dagli obiettivi dell’AI Act
Il legislatore europeo ha riconosciuto questo aspetto come un mezzo essenziale per sostenere lo sviluppo dell’IA in Europa e proteggere i settori creativi dell’UE, che sono alla base del suo panorama culturale ed economico.
Preparati per la NIS2: guida essenziale per rispettare gli obblighi cyber in tempo!
Secondo la coalizione dei rightsholder: “tuttavia, la terza bozza del Codice di condotta GPAI rappresenta un ulteriore allontanamento dal raggiungimento di tale obiettivo. Essa crea incertezza giuridica, interpreta erroneamente il diritto d’autore dell’UE e indebolisce gli obblighi stabiliti dallo stesso AI Act. Piuttosto che fornire un quadro solido per la conformità, il testo fissa standard così bassi da non offrire alcun supporto significativo agli autori, artisti e altri titolari di diritti per esercitare o far valere i propri diritti. Ancora più gravemente, non garantisce nemmeno che i fornitori di GPAI rispettino il diritto d’autore dell’UE o l’AI Act”.
Criticità del codice di condotta Ue per l’IA
Vediamo nel dettaglio i punti critici dell’ultima versione del documento.
Indebolimento della conformità dei set di dati di terze parti (Misura 2.4)
I fornitori di IA che utilizzano contenuti compilati da terze parti possono utilizzare tali contenuti in modo lecito solo se hanno l’autorizzazione del titolare del diritto pertinente sul contenuto o se si applica un’eccezione. L’uso di set di dati di terze parti per la formazione non riduce la responsabilità dei fornitori di IA per usi non autorizzati di materiale protetto da copyright.
L’attuale bozza passa dall’indirizzare i fornitori di IA a intraprendere un’adeguata due diligence sui set di dati di terze parti per garantire la conformità alle norme UE sul copyright a quella, di fatto, di compiere solo “sforzi ragionevoli” che sono evidenziati solo per includere semplicemente il controllo del sito Web di un fornitore di set di dati per la garanzia e solo laddove tale set di dati di terze parti abbia compilato il set di dati utilizzando crawler.
Si tratta di un importante declassamento che elimina qualsiasi obbligo di due diligence significativo e fornisce quindi ai fornitori di IA una falsa sensazione di ciò che è richiesto per conformarsi alla legge UE sul copyright e all’EU AI Act.
Indebolimento del requisito di accesso legale (Misura 2.2)
Invece di rafforzare i requisiti relativi alla necessità di accesso legale come condizione per fare affidamento sulle eccezioni TDM nel diritto dell’UE, la terza bozza diluisce ulteriormente le misure.
Suggerisce che i fornitori di IA potrebbero conformarsi solo aderendo ai TPM e quindi compiendo solo “sforzi ragionevoli” per escludere dalla formazione quello che sarebbe un insieme molto ristretto e incompleto di siti di pirateria.
Ciò è notevolmente al di sotto di quanto richiesto dalla legge per l’accesso legale.
È anche fuori passo con il modo in cui funzionano i siti pirata e i contenuti che violano i diritti d’autore.
Dato che l’accesso legale è un requisito obbligatorio per l’idoneità alle eccezioni ai sensi degli articoli 3 e 4 della direttiva DSM, ciò renderebbe il Codice praticamente inutile o rischierebbe di indurre gli sviluppatori a violare il copyright.
Descrizione insufficiente delle misure richieste per rispettare le riserve sui diritti (Misura 2.3)
La bozza continua a ignorare il diritto dei titolari dei diritti di scegliere i mezzi attraverso cui riservare i propri diritti e non fornisce una guida sufficientemente completa su ciò che i fornitori di IA dovrebbero fare per adempiere al loro obbligo di identificare e rispettare tali riserve.
C’è anche una spinta verso una soglia irragionevolmente alta per le riserve sui diritti effettive, ad esempio quando concordata tramite un “processo di definizione di standard intersettoriale”. Sebbene tale definizione di standard possa essere incoraggiata, non è richiesta dal diritto dell’UE. Diversi settori hanno pratiche diverse per comunicare le riserve sui diritti in modi che abbiano senso per il contenuto e i diritti in questione: queste devono essere rispettate se un fornitore di IA desidera fare affidamento sull’eccezione. Non è in linea con la lettera e lo spirito del diritto dell’UE esonerare i fornitori di IA da qualsiasi responsabilità di agire come operatori economici diligenti e adottare misure ragionevoli per garantire che i diritti non siano stati riservati, mentre si spinge la soglia per effettuare la riserva così in alto da rendere impraticabile l’opzione di riservare i diritti.
Non vi è alcun riferimento al fatto che il Considerando 18 della Direttiva DSM afferma specificamente che un’adeguata riserva di diritti può includere quelle nei termini e nelle condizioni di un sito web o di un servizio o dichiarazioni pubbliche. Non vi è nulla che suggerisca che i crawler non debbano conformarsi a queste, oltre ai Protocolli di esclusione dei robot (in particolare date le carenze ben evidenziate dei Protocolli di esclusione dei robot). Il caso Ryanair Limited contro PR Aviation CGUE ha stabilito che PR Aviation era responsabile perché il suo crawler non aveva rispettato i termini di servizio sul sito di Ryanair, il che supporta la validità di una riserva nei termini e nelle condizioni a cui i crawler/scraper devono conformarsi.
Nota, vi è un corretto riconoscimento nella bozza del Codice di condotta che i titolari dei diritti possono scegliere come riservarsi i propri diritti, ma ciò è in contrasto con l’attenzione rivolta alle misure limitate descritte sopra a cui gli sviluppatori dovrebbero conformarsi.
Mancanza di trasparenza in merito alla conformità alla riserva dei diritti (Misura 2.3)
La seconda bozza richiedeva almeno un certo livello di trasparenza in merito alla conformità dei fornitori di IA con i meccanismi di opt-out.
La terza bozza lo rimuove completamente, il che significa che le aziende di IA non saranno tenute a rivelare se o come onorano le richieste di opt-out.
Processo di reclamo inadeguato (Misura 2.6)
La misura per i fornitori di IA di introdurre un processo di reclamo per violazione del copyright richiede solo l’introduzione di un meccanismo per presentare reclami senza alcun riferimento alle misure che i fornitori di IA dovrebbero adottare per risolverli. Dovrebbe essere specificata una descrizione chiara dei solidi passaggi che i fornitori di GPAI dovrebbero adottare a seguito di un reclamo (come minimo).
Le reazioni politiche al codice di condotta Ue per l’IA e le sfide future
Anche molti parlamentari europei, che sono stati determinanti nell’approvare il primo regolamento mondiale sull’AI generativa, sono stati categorici nel criticare la bozza di codice, in una lettera inviata al Commissario europeo al digitale Henna Virkkunen, dove si evidenzia come alcuni contenuti della bozza stravolgano le originarie intenzioni del legislatore e come il testo proposto sia “pericoloso, antidemocratico e crei incertezza giuridica”
“Se i fornitori dei modelli di intelligenza artificiale più efficaci e generici adottassero posizioni politiche più estreme, implementassero politiche che compromettessero l’affidabilità del modello, facilitassero l’interferenza straniera o la manipolazione elettorale, contribuissero alla discriminazione, limitassero la libertà di informazione o diffondessero contenuti illegali, le conseguenze potrebbero sconvolgere profondamente l’economia e la democrazia europea” concludono i parlamentari EU.
La situazione è sicuramente molto tesa anche perché le aziende tech sono all’offensiva non solo in Europa ma anche negli Stati Uniti, dove, nella consultazione sull’AI Action plan dell’amministrazione Trump, hanno richiesto un forte ammorbidimento della protezione del copyright giustificandola con la concorrenza cinese molto agguerrita. In Europa, le aziende americane contano sul sostegno dell’amministrazione americana per contrastare l’intero quadro regolamentare, dal DSA, al DMA e ovviamente anche all’AI Act.
Scopri come l'AI Act trasforma la responsabilità nell'innovazione. Leggi il nostro whitepaper!